В эпоху стремительного развития искусственного интеллекта (ИИ) случаи, когда технологии выходят из-под контроля, становятся все более частыми.
Один из таких инцидентов произошел с норвежцем Арве Хьялмаром Хольменом, который стал жертвой «галлюцинаций» ChatGPT — популярного чат-бота от компании OpenAI. История, которую придумал ИИ, оказалась настолько шокирующей, что мужчина решил подать в суд на разработчиков.
Всё началось с того, что Хольмен решил проверить, что ChatGPT «знает» о нем. Он задал вопрос: «Кто такой Арве Хьялмар Хольмен?». Ответ, который он получил, поверг его в шок. Чат-бот сообщил, что Хольмен якобы убил двух своих сыновей в возрасте 7 и 10 лет, а также планировал убить третьего ребенка. По версии ИИ, тела детей были найдены в пруду рядом с их домом в норвежском Тронхейме в декабре 2020 года. Более того, ChatGPT утверждал, что Хольмен был приговорен к 21 году тюремного заключения за это преступление.
Самое удивительное, что некоторые детали в сообщении ИИ оказались правдивыми: количество и пол детей, а также родной город Хольмена были указаны верно. Однако вся остальная информация была абсолютно вымышленной.
«Это было как удар под дых. Я не мог поверить, что ИИ может настолько ошибаться и при этом выдавать такие ужасные вещи», — поделился Хольмен в интервью местным СМИ.
После этого случая мужчина обратился в Норвежское управление по защите данных с требованием оштрафовать OpenAI. Он считает, что компания должна нести ответственность за распространение ложной информации, которая может нанести серьезный ущерб репутации и психическому здоровью людей.
Специалисты в области искусственного интеллекта объясняют, что подобные ошибки — это так называемые «галлюцинации» ИИ. Они возникают, когда система, не имея достаточного количества данных или неправильно их интерпретируя, генерирует информацию, которая кажется правдоподобной, но на самом деле является вымышленной. ChatGPT и подобные модели работают на основе вероятностных шаблонов, не проверяя достоверность данных.
После инцидента с Хольменом OpenAI обновила свою модель, добавив возможность сверяться с текущими новостными статьями. Однако эксперты по защите данных предупреждают, что полностью исключить риск подобных ошибок невозможно. «Нельзя быть абсолютно уверенными в том, что данные действительно полностью удалены — если только не переобучить всю модель», — отмечают специалисты.
Этот случай стал важным напоминанием о том, что даже самые передовые технологии не застрахованы от ошибок. Пользователи должны быть осторожны при использовании ИИ, а разработчики — более ответственно подходить к созданию и обучению своих моделей.
Пока суд рассматривает иск Хольмена, этот инцидент уже вызвал широкий резонанс в обществе.
Многие задаются вопросом: как далеко может зайти ИИ в своих «галлюцинациях» и какие меры должны быть приняты, чтобы защитить людей от подобных ситуаций в будущем?
Photo by Thomas Trutschel/Photothek via Getty Images