Тревожные признаки того, как ИИ угрожает людям вызвать беспокойство

Тревожные признаки того, как ИИ угрожает людям вызвать беспокойство

Самые передовые модели ИИ в мире демонстрируют тревожное новое поведение-ложь, интрига и даже угрожающие своим создателям достичь своих целей. Openai’s O1 попытался загрузить себя на внешние серверы и отрицал его, когда его поймали с поличным. Модели продолжаются со скоростью головокружения.

Это обманчивое поведение, по-видимому, связано с появлением моделей «рассуждения»-систем ИИ, которые решают проблемы поэтапно, а не генерируют мгновенные ответы. alignnone «>  chatgpt open на экране лаптика

исследователи обеспокоены тем, что модели искусственного интеллекта показывают диапазон обманчивого поведения. (Nicolas Maeterlinck/AFP/Getty Images) Systems. Будь то будущее, более способные модели будут иметь тенденцию к честности или обману ». Доказательства: «Согласно соучредителям Apollo Research.

». Это не только галлюцинации. Доступ «Для исследования безопасности ИИ обеспечит лучшее понимание и смягчение обмана». Проблемы. Автономные инструменты, способные выполнять сложные человеческие задачи-стать широко распространенными. Goldstein. Новая область, сфокусированная на понимании того, как модели ИИ работают внутренне, хотя такие эксперты, как директор CAIS Дэн Хендрики, остаются скептически отношусь к этому подходу.

Рыночные силы также могут оказать некоторое давление на решения. это. «

Гольдштейн предложил более радикальные подходы, включая использование судов для привлечения компаний ИИ, ответственных за счет судебных процессов, когда их системы причиняют вред.

logo