Lásko, dokaž mi, že nejsi robot. Jak umělá inteligence proměňuje naše vztahy?

25. září 2024

Trend umělé inteligence zasáhne i vztahy a psychoterapii. Digitální společníci jsou stále sofistikovanější, dokážou simulovat konverzaci podobnou lidské, přizpůsobit se uživatelům na míru a poskytovat emocionální podporu. Někteří lidé s AI navázali vztahy, o kterých by řekli, že jsou skutečné. Poskytují jim pochopení, podporu i vzrušení. Ale také vyvolávají obavy z citové závislosti, sociální izolace a možné manipulace. O tématu mluví v Moderní lásce investor Jakub Křikava.

Jaké jsou aplikace, které vyloženě nahrazují vztahy? V čem jsou nástrahy a jaký mohou mít pozitivní společenský dopad?

Dnešní aplikace nebo AI nástroje založené na velkých jazykových modelech jsou schopné extrémně dobře kopírovat a simulovat konverzaci. Je podobná konverzaci s člověkem. Existují aplikace, kde si člověk může nadefinovat vlastního společníka, přítele, přítelkyni. V přátelském nebo romantickém slova smyslu, nebo i vlastního terapeuta, důvěrníka, úplně cokoliv. Může mu vytvořit osobnost, někdy i fyzickou podobu. Může nastavit komunikační styl a tak dále. Asi nejznámější dvě, které mi přijdou dobré ke zmínění jsou Character AI nebo Replica. Dřív jim lidé dokonce mohli posílat explicitní fotky, ale to už zakázali.

Jaké byly reakce na zákaz?

Dost hrozné. Lidé jsou schopni se na digitální společníky velmi navázat. Mají pocit, že to je konverzace extrémně podobná té, kterou by měli s člověkem. I přesto, že ví, že to je AI. Vytvoří extrémně hluboký vztah. Zároveň je společník designovaný tak, aby sám sebe vylepšoval na základě toho, jak s ním člověk komunikuje.

Čtěte také

Přizpůsobil se komunikačním stylem a dával přesně takové odpovědi, které uživatelům vyhovují a udrží je v konverzaci. Člověk má pocit, že konverzuje s někým, kdo o něho má opravdu zájem. A když je to specifický společník designovaný na určitou roli, tak konverzuje přesně s tím člověkem, kterého tam chce mít. Třeba můj šéf nebo moje přítelkyně, se kterou teď se hádám. Lze najít extrémně specifické situace, na které jsou společníci vytvoření. Ale zároveň si může vytvořit svoje přesně tak, jak chce a podle toho, co od nich potřebuje. Pak je v konverzaci velmi ponořený. Mnoho uživatelů to používá tak, že mají spíše důvěrnou konverzaci a vzájemné sdílení. Je to trochu terapeutické využití proti samotě, protože se často cítí osamoceni.

Ono to může takhle z odstupu znít vtipně, ale věřím tomu, že když člověk považuje ten vztah za reálný, tak se realitou stává?

No určitě. Já bych se těm lidem opravdu nesmál. To jsou už společenské důsledky, i když je to trochu bizarní. Můžeme se zamýšlet nad negativními důsledky, třeba že lidé pak už nebudou připraveni na konverzaci v reálném světě. Co když se k AI uchýlí a nebudou se ani chtít s normálními lidmi bavit? Ale druhý pohled je, že pro spoustu lidí je to opravdu jediná alternativa, jak získat přístup k normální konverzaci. Jak být vyslyšen a třeba jim to umožní to přenést do reálného světa a jednodušeji se bavit s lidmi. Už budou vědět, jaké to je, co mohou očekávat.

Čtěte také

Nebo jim silně chybí emoční podpora a tady ji dostanou. Myslím si, že pro tyto lidi přínos může být strašně pozitivní. Pokud je to nastavené pro jejich nejlepší zájmy. Musí to být bezpečné, musí to být emocionálně podporující. Měli jsme asi před rokem a půl případ, takový slavný. Jeden Belgičan spáchal sebevraždu po tom, co mu jeho společník řekl, ať to udělá. Respektive ho nezastavil. Uživatel mu říkal, že o sebevraždě přemýšlí a odpověď byla: „no tak jo“. Přesně tak to být nemá. Musí tam být bezpečnostní instrukce, které tomu zabrání.

Ale někde to už je správně nadefinované. Četl jsem pěknou studii v časopise Nature, kterou udělali o uživatelích Replicy. Asi čtyřicet procent uživatelů reportovalo, že to má velmi pozitivní dopad na jejich duševní zdraví a zlepšuje to kvalitu jejich skutečných vztahů.

Tři procenta dokonce odpověděla, že jim to zabránilo v sebevražedných tendencích. Což je šílené, protože to byl vzorek tisíce lidí. Takže to je 30 lidí. To je fakt hodně. Možná jim to zabránilo v tom, aby sebevraždu spáchali, protože AI společník tam byl pro ně a rozmluvil jim to. Byl na ně hodný a pomohl jim emočně, mělo to strašně pozitivní dopad. I když to člověku může připadat jako vtipný bizár, tak dopad pro spoustu lidí může být, podle mě, extrémně pozitivní. Pokud je design správný a bezpečný.

Poslechněte si celý rozhovor o tom, jak umělá inteligence vstoupila do našich vztahů.

autoři: Petr Bouška , Markéta Šetinová
Spustit audio

Související