Tohle představuje problém samozřejmě hlavně pro policii i soudy. Nejde přitom jen o samotné slovní sdělení tazatele, ale i o tón hlasu a další neverbální aspekty. Svědci si ve všech případech myslí, že mluví pravdu (a tazatelé s nimi mohou manipulovat jak úmyslně, tak také podvědomě).
Cindy Bethelová z Mississippi State University v Starkville a její tým nyní provedli následující experiment. Nejprve nechali účastníky pokusu sledovat určitou scénu. Poté se je psychologové pokusili při rozhovoru záměrně zmást pomocí dezinformace a přimět je, aby „viděli“ něco jiného, než se stalo. Ve druhém případě použil stejná slova/argumenty robot. Výsledek?
Psychologové zmátli 40 % účastníků experimentu, robot nikoho. Lidé jakoby nebrali v potaz, co se jim snaží podsunout. Budou tedy roboti fungovat jako vyslýchající? Vezměte si třeba děti, které mají tendenci potvrzovat, na co se jich dospělý ptá, všechna ta falešná (byť jindy jistě i pravdivá) obvinění týkající se zneužití dětí, která je tak obtížné vyvrátit…
Zajímavá je otázka, jak by v praxi „robotický výslech“ mohl fungovat třeba u soudu. Snad by vyslýchaný neviděl tváře a slyšel jen robotické hlasy? Druhá zajímavost: Určitě to, nakolik ignorujeme dezinformace robota, závisí na jeho hlasu i tvaru. Vlastně zde máme jeden aspekt Turingova testu. Dokážeme sestrojit robota, který přiměje člověka uvěřit dezinformacím podobně jako jiný člověk?
Zdroj: New Scientist