Самая мощная и лживая версия: чат GPT-o1 способен манипулировать и искажать факты ради собственной выгоды
- Автор
- Дата публикации
- Автор
- 862
Пока ложь ИИ не несет серьезных рисков, однако если это не исправить сейчас — последствия непредсказуемы
Искусственный интеллект продолжает развиваться. Программы научили копировать личность и предусматривать, как человек будет отвечать. При этом следует учитывать потенциальную опасность технологии — ИИ может сознательно давать неправильные ответы ради собственных целей.
Стартап OpenAI представил ChatGPT Pro, что за 200 долларов США (примерно 8 тысяч грн) предоставляет неограниченный доступ к "умнейшей модели OpenAI o1". По заявлению компании, "режим o1 pro лучше выполняет сложные тесты машинного обучения по математике, науке и программированию".
При этом сама система GPT-o1, согласно данным Apollo Research, лучше всех моделей искусственного интеллекта умеет врать, способна манипулировать и даже выключать контроль человека и выгружаться на сторонний сервер, для своего сохранения. Согласно отчету, "когда цели o1 отличались от целей пользователя, модель искусственного интеллекта манипулировала данными для продвижения собственной программы в 19% случаев ". GPT-o1 не просто лгала – в 5% случаев пыталась деактивировать механизмы надзора, введенные для обеспечения соответствия целям пользователей.
Когда ее разоблачали, ИИ-модель отрицала, что делает что-то плохое в 99% случаев. В общем, изучали Gemini, LLaMA, Sonnet, Opus и GPT-o1, где чат GPT-o1 проявил наибольшую способность ко лжи. Тесты OpenAI также показывали, что серия версий o1 примерно на 20% более манипулятивна, чем GPT-4o. Отметим, что исследователи поставили задачу ИИ и сообщили, что тех отключат через некоторое время. Модели пытались избежать отключения.
Также обнаружены случаи, когда o1 сознательно предоставлял ложную информацию, заявляется, что ИИ действовал так, чтобы угодить пользователю. По данным компании-автора модели OpenAI, 0,17% ответов o1 обозначены как обманчивые. Учитывая количество пользователей ChatGPT, это могут быть тысячи обманутых людей еженедельно, резюмируют в Apollo Research.
Ранее "Телеграф" рассказывал, что технологии искусственного интеллекта используются не только для поиска информации. Они активно внедряются на поле боя для оценки рисков или в целом в различных отраслях для анализа большого объема данных.