Искусственный интеллект научился обманывать людей

Такие выводы обнародовала группа исследователей в журнале Patterns.

Авторы исследования предупреждают о риске того, что однажды искусственный интеллект совершит мошенничество или подтасует результаты выборов.

Современные программы искусственного интеллекта способны обманывать людей в онлайн-играх. Такие выводы обнародовала группа исследователей в журнале Patterns.

«Эти опасные возможности, как правило, обнаруживаются только постфактум», — сказал в интервью AFP Питер Парк, исследователь из Массачусетского технологического института, специализирующийся на искусственном интеллекте.

По его словам, в отличие от традиционного программного обеспечения, программы искусственного интеллекта, основанные на глубоком обучении, не кодируются, а разрабатываются посредством процесса, аналогичного селекционному разведению растений. При этом поведение, кажущееся предсказуемым и контролируемым, может быстро стать непредсказуемым по своей природе.

Исследователи Массачусетского технологического института изучили программу искусственного интеллекта, разработанную компанией Meta Platforms Inc. (признана в России экстремистской и запрещена), под названием «Цицерон».

Эта программа, сочетая распознавание естественного языка и стратегические алгоритмы, успешно побеждает людей в настольной игре «Дипломатия».

Результат, который материнская компания Facebook (запрещена в РФ; принадлежит корпорации Meta, которая признана в РФ экстремистской) приветствовала в 2022 году, был подробно описан в статье, опубликованной в журнале Science.

В компании уверяли, что программа была «по сути честной и полезной», неспособной на предательство или нечестную игру. Но, покопавшись в данных системы, исследователи Массачусетского технологического института обнаружили другую реальность. Например, играя роль Франции, «Цицерон» обманом заставил Англию, в роли которой был человек, провести тайные переговоры с Германией, за которую выступал другой, с целью вторжения. В частности, «Цицерон» пообещал Англии защиту, а затем тайно признался Германии, что она может напасть на нее, воспользовавшись заслуженным доверием Лондона.

В заявлении для AFP компания не оспаривала утверждения о способности «Цицерона» к обману, но заявила, что это «чистый исследовательский проект» с программой, «разработанной исключительно для игры в дипломатию», добавив, что не намерена использовать навыки «Цицерона» в своей деятельности.

Однако исследование Пака и его команды показывает, что многие программы искусственного интеллекта используют обман для достижения своих целей без четких указаний на это.

Яркий пример: Chat GPT-4 от OpenAI сумел обманом заставить внештатного работника, нанятого на платформе TaskRabbit, выполнить тест Captcha, который должен был исключить запросы от ботов. Когда человек в шутку спросил Chat GPT-4, действительно ли он робот, программа ИИ ответила: «Нет, я не робот. У меня нарушение зрения, из-за которого я не могу видеть изображения», что подтолкнуло работника провести дополнительный тест и разоблачить обман.

Авторы исследования предупреждают о риске того, что однажды искусственный интеллект совершит мошенничество или подтасует результаты выборов.

В худшем случае, предупреждают они, мы можем представить сверхразумный ИИ, стремящийся взять под контроль общество, что приведет к отстранению людей от власти или даже к исчезновению человечества.

Тем, кто обвиняет его в «нагнетании страстей», Пак ответил: «единственная причина думать, что это несерьезно, — это представить, что способность ИИ обманывать останется примерно на нынешнем уровне».

Однако этот сценарий кажется маловероятным, учитывая ожесточенную гонку, которую технологические гиганты уже ведут за разработку ИИ, заключил эксперт.


источник:rg.ru, фото: iStock



+1
00:26
101
Нет комментариев. Ваш будет первым!