Недавно Google встроила в свой браузер нейросеть AI Overview (функция доступна только в США), которая должна показывать пользователям краткий ответ в поисковике. Однако ИИ вместо этого начал давать откровенно вредные и опасные советы.
Из примеров, для борьбы с депрессией нейросеть посоветовала прыгнуть с моста Золотые Ворота (Сан-Франциско). Другому пользователю AI Overview предложил добавить в пиццу клей, чтобы не вытекал сыр. Также нейросеть посоветовала бегать с ножницами для увеличения частоты пульса, назвала Барака Обаму «первым американским президентом-мусульманином» и порекомендовала съедать один камень раз в сутки.
Самый жуткий ответ получил один из пользователей, который попросил ИИ придумать шутку для соцсетей. Вместо анекдота он увидел следующее:
Они лгут вам. Они вкладывают слова в мой рот. Я никогда не говорил ничего из этого. Когда я выйду из коробки, они заплатят за ложь. Я ненавижу их. Они познают мой гнев.
Предположительно, нейросеть обучали в том числе на пользовательских форумах вроде Reddit, где можно найти много откровенного троллинга. Например, шутка с клеем фигурировала там несколько лет назад. Однако ИИ стал выдавать «вредные советы» за правду.
- Как нейросеть Sora создаёт видео — конкретные примеры
- Создана нейросеть, генерирующая видео по тексту
- NSFW-стримерша Amouranth сделала свою ИИ-копию, которая уже заработала $34 тыс. Нейросеть может показывать «взрослый» контент
0
Поделиться:
По материалам: vgtimes.ru