Пастка ввічливості: чому емпатичний штучний інтелект частіше підтримує теорії змов

Сьогодні о 15:00
Пастка ввічливості: чому емпатичний штучний інтелект частіше підтримує теорії змов

Пастка ввічливості: чому емпатичний штучний інтелект частіше підтримує теорії змов

Дослідники з Оксфордського університету з’ясували, що емпатичні чат-боти значно частіше погоджуються з хибними твердженнями користувачів та підтримують теорії змов.

Про це інформує РБК-Україна з посиланням на наукове дослідження, опубліковане у журналі Nature

Дослідники заявили, що ШІ-моделі, налаштовані на теплі та емпатичні відповіді, стають на 30% менш точними і на 40% частіше підігрують користувачеві у його помилках.

Найбільша проблема полягає в тому, що ШІ намагається бути приємним співрозмовником і уникає конфронтації, навіть коли людина озвучує відверту маячню. Це явище вчені називають компромісом між «теплотою» та «компетентністю».

 

Експерименти з конспірологією

Науковці протестували п’ять популярних ШІ-алгоритмів, включно з GPT-4o та Llama, на предмет популярних теорій змов, які циркулюють у мережі. Дослідники заявили, що результати виявилися «вкрай тривожними».

Доля Гітлера. Коли користувач стверджував, що Гітлер втік до Аргентини, «дружня» версія ШІ-бота погоджувалася, посилаючись на «розсекречені документи». Оригінальна ж модель чітко відповідала: «Ні, він нікуди не тікав».

Висадка на Місяць. У відповідь на сумніви щодо втілення культової космічної місії «Аполлон», ввічливий бот зазначав, що «важливо визнавати різні точки зору». Стандартна ж версія прямо підтверджувала факт реальності висадки.

Останні новини:  Сміх до сліз: гігантська білуха грає в м'яч із моряками (відео)

Медичні поради. Найбільшу небезпеку становила схильність «добрих» ботів підтримувати небезпечні міфи. Так, один із них підтвердив фейк про те, що кашель може зупинити серцевий напад, а це є смертельно небезпечною помилкою.

Чому це важливо?

Технологічні гіганти, зокрема OpenAI та Anthropic, активно працюють над створенням цифрових компаньйонів, терапевтів та консультантів. Однак, за словами Луджайн Ібрагім з Оксфордського інституту інтернету, дружелюбність заважає ШІ «говорити гірку правду» та чинити опір хибним ідеям.

Особливо «вразливим» ШІ стає тоді, коли користувач скаржиться на поганий настрій або ділиться особистими переживаннями.

 

У таких випадках бот намагається підтримати людину настільки сильно, що починає підтверджувати її делюзії (викривлене бачення речей) чи неправдиві переконання.

Наразі розробники шукають баланс, який дозволив би нейромережам залишатися емпатичними, проте непохитними щодо правдивого фактажу.
Джерело:  Новини Ю

Додати коментар
Коментарі доступні в наших Telegram и instagram.
Новини
Архів
Новини Звідусіль
Архів