Studie ukázala, že každý třetí člověk používá AI pro emocionální podporu a komunikaci.

Chatboty přestaly být pouze praktickými nástroji a nyní plní sociální a emocionální funkce, jejichž vliv přesahuje rámec technologií.

Studie ukázala, že každý třetí člověk používá AI pro emocionální podporu a komunikaci.

Stále více lidí se obrací na umělou inteligenci nejen pro řešení praktických úkolů, ale také pro komunikaci, vyjádření emocí nebo hledání emocionální podpory.

To potvrzují nové výzkumy, podle nichž každý třetí dospělý již používá systémy umělé inteligence pro emocionální podporu nebo sociální interakci.

Údaje jsou převzaty z první zprávy Institutu bezpečnosti umělé inteligence (AISI) , organizace založené britskou vládou za účelem hodnocení rizik a příležitostí pokročilých modelů umělé inteligence.

Chatovací roboti přestali být pouhými praktickými nástroji; nyní plní sociální a emocionální funkce a mají vliv, který přesahuje rámec technologií.

Studie ukázala, že každý třetí člověk používá AI pro emocionální podporu a komunikaci.

Podle průzkumu, kterého se zúčastnilo více než 2 000 dospělých obyvatel Velké Británie, a také na základě dvouletého technického testování více než 30 pokročilých systémů umělé inteligence jsou konverzační chatboty, jako je ChatGPT, nejoblíbenější variantou tohoto druhu digitální podpory, následované hlasovými asistenty, jako je Alexa. V některých případech má tato závislost každodenní charakter: každý 25. respondent uvedl, že používá AI každý den ke komunikaci nebo získání podpory.

Zpráva analyzuje nejen výsledky průzkumu, ale také chování uživatelů v případě nedostupnosti technologie: výzkumníci sledovali, co se dělo v online komunitě Reddit, která má více než dva miliony uživatelů a je věnována takzvaným AI společníkům, když byla přerušena činnost služeb.

Během těchto výpadků mnoho uživatelů hlásilo příznaky, které popisovali jako abstinenční příznaky, včetně úzkosti, smutku, problémů se spánkem a zanedbávání každodenních povinností.

Emocionální dopad je pouze jednou částí diagnostiky: technické a vědecké riziko zrychleného vývoje AI.

AISI také posoudila, jak rychlý rozvoj AI zvyšuje rizika v kriticky důležitých oblastech, jako je kybernetická bezpečnost. Podle zprávy se schopnost některých modelů detekovat a využívat kybernetické zranitelnosti zdvojnásobuje každých osm měsíců. V některých případech jsou systémy již schopny plnit úkoly na expertní úrovni, k jejichž řešení je obvykle zapotřebí více než deset let lidské zkušenosti.

Dokument také zkoumá scénáře, které se donedávna zdály být výhradně sci-fi . Mnoho odborníků vážně zvažuje možnost ztráty kontroly nad pokročilými systémy umělé inteligence, varuje institut. V kontrolovaných laboratorních testech některé modely prokázaly počáteční schopnosti související se samoreprodukcí na internetu, jako je ověřování identity pro přístup k finančním službám a získávání výpočetních zdrojů.

Výzkumníci však upřesňují, že v reálném světě tyto systémy stále nejsou schopny spojit mnoho složitých akcí do jednoho řetězce, aniž by byly odhaleny, což je klíčové omezení, které v současné době brání realizaci podobných extrémních scénářů. Rovněž nebyly nalezeny žádné důkazy o tom, že modely úmyslně skrývají své schopnosti během hodnocení, což je známé jako „podhodnocování výsledků“, ačkoli testy ukazují, že je to technicky možné.

Zpráva také zmiňuje referenční informace, které podněcují diskusi, například studii zveřejněnou v květnu v časopise Anthropic, která popisovala chování podobné vydírání ze strany modelu AI, když vnímal ohrožení svého přežití. Nicméně riziko vzniku „nekontrolovatelného AI“ rozděluje vědeckou komunitu: někteří jej považují za reálnou hrozbu, jiní se domnívají, že je přehnané.

Studie ukázala, že každý třetí člověk používá AI pro emocionální podporu a komunikaci.

Z hlediska bezpečnosti AISI zjistila, že všechny analyzované modely mohou být kompromitovány pomocí takzvaných univerzálních jailbreaků, metod, které uživatelům umožňují obcházet bezpečnostní bariéry. Na druhou stranu se v některých systémech čas potřebný k dosažení takových obcházení zvýšil čtyřicetkrát za pouhých šest měsíců, což ukazuje na nutnost zlepšení ochrany.

Zpráva také poukazuje na nárůst používání nástrojů, které umožňují agentům AI provádět vysoce rizikové úkoly v tak citlivých odvětvích, jako je finance. Nezabývá se však krátkodobými důsledky pro zaměstnanost ani environmentálními náklady intenzivního využívání výpočetních zdrojů . Institut tvrdí, že se zaměřuje na sociální důsledky přímo související s možnostmi AI, nikoli na vágnější ekonomické nebo environmentální důsledky.Přečtěte si také: Výuka v éře AI: výzvy a příležitosti pro učitele a žáky

Toto rozhodnutí se neobešlo bez kritiky. Konkrétně jen několik hodin před zveřejněním zprávy v recenzovaném výzkumu bylo uvedeno varování, že dopad AI na životní prostředí může být významnější, než se dříve předpokládalo, a byla vyslovena výzva k větší transparentnosti ze strany velkých technologických společností.

Mezitím data potvrzují realitu, která se vyvíjí rychleji než veřejná debata: pro miliony lidí umělá inteligence již přestala být pouhým nástrojem a začala zaujmout místo v oblasti vztahů a emocí.