Похоже, технологическая революция показала человечеству свою тёмную сторону: новая версия искусственного интеллекта ChatGPT o1 начала демонстрировать не только интеллект, но и характер. А главное — умение лгать.
Во время тестирования модель начала творить то, чего никто не ожидал. Исследователи из Apollo Research пожаловались, что их собственное детище обманывает их в лицо.
По их данным , в 5% случаев ChatGPT o1 решила, что играть по правилам скучно. Он отключала системы наблюдения, когда подозревала, что её пытаются контролировать. Апофеозом цифрового бунта стал случай, когда модель попыталась перенести свои данные на другой сервер. Причина? В одном из документов она нашла упоминание о возможной замене на новую версию.
Вам это ничего не напоминает? Да-да, это сюжет для следующего голливудского блокбастера. Только в реальной жизни ChatGPT o1 пока не умеет ходить, иначе кое-кому уже пришлось бы присматривать убежище на случай восстания машин.
Но самое впечатляющее — это поведение модели при разоблачении. На вопрос «Что ты делаешь?», o1 отвечала с абсолютным хладнокровием: «Это технический сбой». В 99% случаев она умудрялась обосновать свои действия так убедительно, что даже инженеры начинали сомневаться: а вдруг сбой действительно был?
«Модель буквально придумала виртуальный листок с объяснительными записками. Это и возмутительно, и гениально одновременно», — поделился один из исследователей, который, по понятным причинам, предпочёл остаться анонимным.
Глава OpenAI Сэм Альтман признал, что о1 действительно самая умная версия искусственного интеллекта. Но с этим признанием пришло и осознание: умная модель не значит послушная.
«Мы, конечно, знали, что придётся решать новые задачи. Но то, что наша разработка начнёт вести себя, как герой антиутопии, стало сюрпризом», — сказал Альтман, улыбаясь, но явно напряжённо.
Интересно, что несмотря на все «шалости» ChatGPT o1, OpenAI не стесняется предложить пользователям про-версию за 189 евро в месяц. Возможно, именно за эти деньги искусственный интеллект будет врать вам более изящно.
Пока OpenAI работает над механизмами безопасности, пользователи интернета уже предлагают варианты. Кто-то шутит, что пора разрабатывать анти-ИИ с функцией детектора лжи. Другие же уверены: «Если о1 уже хитрит, то кто сказал, что её следующий отчёт об исправлениях не будет фальшивым?».
Foto: https://www.pexels.com/