Rozhovor s deadbotem. Vývojář her umožňuje lidem simulovat konverzaci s mrtvými - Euro.cz

Zprávy

Přihlášení

Rozhovor s deadbotem. Vývojář her umožňuje lidem simulovat konverzaci s mrtvými

,
Rozhovor s deadbotem. Vývojář her umožňuje lidem simulovat konverzaci s mrtvými
Zdroj: Depositphotos
  • Herní vývojář vynalezl chatovacího robota, který dokáže simulovat rozhovory se skutečnými osobnostmi. Včetně těch zesnulých

  • Používá k tomu jazykový model API GPT-3 od společnosti OpenAI zabývající se výzkumem umělé inteligence

  • Někteří odborníci považují napodobování zesnulých za neetické a do jisté míry i nebezpečné

Uchovat si živou vzpomínku na zesnulého člověka je po čase těžší a těžší. Videa a fotky ho sice dokáží ,zvěčnit‘, přímou interakci s ním však nenahradí. Podobně po smrti své snoubenky smýšlel i třiatřicetiletý Joshua Barbeau, který se po letech truchlení rozhodl obnovit s Jessicou konverzaci. Ne nadpřirozenou cestou, jak někteří lidé věří, ale pomocí moderních technologií – vytvořil si chatovacího robota, jenž měl věrně simulovat textové rozhovory s jeho zesnulou partnerkou.

Pomohl mu k tomu Projekt December, za nímž stojí herní vývojář Jason Rohrer. Ten jej vymyslel s cílem vytvořit potenciálním zákazníkům věrohodné ,chatboty‘, kteří s nimi budou pomocí chatu komunikovat velmi podobným způsobem jako jimi zvolené osobnosti. A to právě včetně těch zesnulých. Vše samozřejmě za poplatek.

,Konverzace s mrtvými‘ je možná díky technologii GPT-3, což je jazykový model pro generování textu od společnosti OpenAI sloužící pro výzkum umělé inteligence (AI). Aby byl charakter zvolené osobnosti simulován co možná nejvíce autentickým způsobem, musí zákazník softwaru o dotyčném poskytnout několik základních informací. Těmi v případě Barbeauova robota bylo například datum narození jeho snoubenky, její charakterové vlastnosti i důležité životní milníky. Inspirovat se pak umělá inteligence může také sociálními sítěmi dotyčného.

Chytrý, ale pořád robot

Ačkoli se konverzace s deadbotem může chvílemi zdát opravdu autentická, navzdory své propracovanosti zůstávají GPT-3 modely v některých ohledech stále hloupé. „Je zcela zřejmé, že se nejedná o lidskou inteligenci,“ říká pro San Francisco Chronicle průkopnická výzkumnice AI a profesorka na Institutu Santa Fe Melanie Mitchellová. GPT-3 podle ní nemůže provádět zcela jednoduché úkoly, jako je zjišťování času nebo sčítání čísel. Vše, čeho jsou schopné, je generování textu, přičemž o čím větší jazykové modely se jedná, tím lidštěji působí.

Pro představu, první verze GTP vytvořená v roce 2018 obsahovala 117 milionů interních parametrů. O rok později následoval GPT-2 s 1,5 miliardy parametrů. Model GPT-3 je z těchto tří nejpropracovanější. Vznikl totiž z analýzy více než půl bilionu slov, a to včetně textu ze stránek Wikipedie, miliard dalších webů a tisíců knih.

Potenciální hrozba i otázka etiky

Někteří odborníci jsou v otázce umělé inteligence napodobující lidi velice skeptičtí. Vidí v tomto kroku potenciální hrozbu. Tu si koneckonců uvědomovala i samotná společnost OpenAI spoluzaložená miliardářem Elonem Muskem, která s odvoláním na bezpečnostní obavy původně odložila vydání verze GPT-2 a přístup k pokročilejší GPT-3 omezila pouze na soukromé betatestery. Programátor Rohrer ji ale otevřel pro masy.

Nejlepší přítel robot. Umělá inteligence ElliQ má skoncovat s osamělostí seniorů

Už předtím pracoval na nezávislých videohrách a prosazoval myšlenku, že hry mohou být uměním, jež vyvolává složité emoce. Po měsících experimentů s GPT-2 a GPT-3 přišel na to, jak systémy umělé inteligence přimět k něčemu, pro co nebyly navrženy: vést s lidmi konverzaci podobnou chatu. V roce 2020 pomocí vypůjčeného pověření k betatestování vytvořil rozhraní chatbota a na svých webových stránkách ho zpřístupnil veřejnosti. Uživatelé mohli vybírat z řady různých verzí, z nich každá disponovala odlišným stylem psaní. Mohli si také navrhnout svého vlastního chatbota a dát mu libovolnou osobnost.

Jen souhlas nestačí

Když se případ Joshui Barbeaua a jeho zesnulé snoubenky dostal na veřejnost, společnost OpenAI se vůči tomuto kroku ohradila. Její směrnice totiž výslovně zakazují zneužití GPT-3 pro sexuální, milostné či sebepoškozující účely a šikanu. Rohrer tehdy označil postoj OpenAI za hypermoralistický a tvrdil, že lidé jako Barbeau mu k vytvoření deadbota poskytli souhlas.

To však podle některých odborníků nestačí. „Lidé nejsou žádnými věcmi, se kterými si ostatní mohou dělat, co chtějí. Ani když zemřou. To je důvod, proč naše společnosti považují za špatné znesvěcovat nebo nerespektovat památku zemřelých,“ píše pro The Conversation Sara Suárez-Gonzalová, jež se specializuje na sociální a politické důsledky technologií založených na datech.

Vítězství stroje nad člověkem? Umělá inteligence zabodovala v soutěži programátorů

Vývoj takového robota navíc vyžaduje velké množství citlivých informací týkajících se zesnulého. „Pokud souhlasíme s tím, že je neetické používat data lidí bez jejich souhlasu, dokud jsou naživu, proč by mělo být etické tak činit po jejich smrti?“ vysvětluje a dodává, že souhlas s nakládáním jejích osobních informací by v tomto případě měla dát předem přímo zesnulá osoba. A i to může být málo.

Podle Suárez-Gonzalové nepředstavují problém jen deadboti, ale obecně umělá inteligence napodobující člověka. „Měli bychom vyvinout umělé systémy schopné například pečovat o druhé nebo činit politická rozhodnutí? Zdá se, že v těchto dovednostech je něco, co odlišuje lidi od zvířat a strojů,“ konstatuje s tím, že nahrazení milované osoby technologickým řešením může vést k devalvaci toho, co nás jako lidi charakterizuje. Otázkou podle ní je i to, kdo by v případě negativních důsledků přebíral za robota odpovědnost.