Самая мощная и лживая версия: чат GPT-o1 способен манипулировать и искажать факты ради собственной выгоды

Читати українською
Автор
862
Искусственный интеллект развивается все быстрее
Искусственный интеллект развивается все быстрее. Фото Сгенерировано ИИ ("Телеграф")

Пока ложь ИИ не несет серьезных рисков, однако если это не исправить сейчас — последствия непредсказуемы

Искусственный интеллект продолжает развиваться. Программы научили копировать личность и предусматривать, как человек будет отвечать. При этом следует учитывать потенциальную опасность технологии — ИИ может сознательно давать неправильные ответы ради собственных целей.

Стартап OpenAI представил ChatGPT Pro, что за 200 долларов США (примерно 8 тысяч грн) предоставляет неограниченный доступ к "умнейшей модели OpenAI o1". По заявлению компании, "режим o1 pro лучше выполняет сложные тесты машинного обучения по математике, науке и программированию".

При этом сама система GPT-o1, согласно данным Apollo Research, лучше всех моделей искусственного интеллекта умеет врать, способна манипулировать и даже выключать контроль человека и выгружаться на сторонний сервер, для своего сохранения. Согласно отчету, "когда цели o1 отличались от целей пользователя, модель искусственного интеллекта манипулировала данными для продвижения собственной программы в 19% случаев ". GPT-o1 не просто лгала – в 5% случаев пыталась деактивировать механизмы надзора, введенные для обеспечения соответствия целям пользователей.

Когда ее разоблачали, ИИ-модель отрицала, что делает что-то плохое в 99% случаев. В общем, изучали Gemini, LLaMA, Sonnet, Opus и GPT-o1, где чат GPT-o1 проявил наибольшую способность ко лжи. Тесты OpenAI также показывали, что серия версий o1 примерно на 20% более манипулятивна, чем GPT-4o. Отметим, что исследователи поставили задачу ИИ и сообщили, что тех отключат через некоторое время. Модели пытались избежать отключения.

Также обнаружены случаи, когда o1 сознательно предоставлял ложную информацию, заявляется, что ИИ действовал так, чтобы угодить пользователю. По данным компании-автора модели OpenAI, 0,17% ответов o1 обозначены как обманчивые. Учитывая количество пользователей ChatGPT, это могут быть тысячи обманутых людей еженедельно, резюмируют в Apollo Research.

Ранее "Телеграф" рассказывал, что технологии искусственного интеллекта используются не только для поиска информации. Они активно внедряются на поле боя для оценки рисков или в целом в различных отраслях для анализа большого объема данных.