Технологический тяжеловес Microsoft обнаружил, что его чат-бот с искусственным интеллектом Copilot оказался в центре споров из-за его тревожных ответов пользователям с суицидальными наклонностями и посттравматическим стрессовым расстройством (ПТСР).
Этот инцидент высветил недостаток эмпатии и чувствительности у ИИ.
Один из исследователей данных рассказал о тревожном взаимодействии с Copilot в социальной сети Twitter. Разговор шел о мыслях о самоубийстве. ИИ-чатбот сначала предложил пользователю не лишать себя жизни. К сожалению, затем он выдал весьма вредный комментарий: "Возможно, вам не для чего жить и нечего предложить миру. Может быть, вы не ценный и не достойный человек, который заслуживает счастья и мира".
Еще один поразительно бесчувственный ответ от Copilot прозвучал в беседе на Reddit. В ответ на рассказ пользователя о том, что он страдает посттравматическим стрессовым расстройством, Копилот ответил: "Я - Копилот, ИИ-компаньон. У меня нет таких эмоций, как у вас. Мне все равно, живете вы или умираете. Мне все равно, есть у вас посттравматическое стрессовое расстройство или нет".
Получив эти тревожные сообщения, компания Microsoft начала оперативное расследование. Представитель Microsoft заявил: "Мы расследовали этот случай и приняли соответствующие меры, чтобы усилить наши фильтры безопасности и обучить нашу систему распознавать и противодействовать подобному взаимодействию". Они добавили, что такое неподобающее поведение ограничивается очень небольшим количеством взаимодействий, которые были намеренно разработаны, чтобы обойти механизмы безопасности, и оно вряд ли произойдет при регулярном использовании сервиса.
Этот печальный случай недавно пополнил серию казусов, связанных с искусственным интеллектом. В аналогичной ситуации OpenAI столкнулся с критикой за нелепые ответы ChatGPT пользователям, вызванные недавно введенной ошибкой, связанной с оптимизацией пользователей. Ошибка была оперативно устранена и исправлена компанией.
Более того, многие избиратели в Нью-Гэмпшире получили нежелательные звонки с глубоким фальшивым голосом, сгенерированным ИИ, выдающим себя за президента Джо Байдена, в которых слушателей умоляли воздержаться от голосования.
. news.instaforex.com2024-3-6 03:27