Поддержать команду Зеркала
Беларусы на войне
  1. Осужденный за убийство беларуски в Варшаве подал жалобу на приговор. Стало известно окончательное решение по делу
  2. Его открывали с помпой и снесли тайком за одну ночь. Рассказываем, что за огромный памятник стоял в центре Минска
  3. Беларусь готовится получить щедрый «подарок» из-за границы — его масштабы впечатляют. Но это несет риски для страны
  4. Для водителей намерены ввести новшество с 1 января
  5. Синоптики рассказали, когда в страну придет «весьма существенное похолодание»
  6. Польский визовый центр добавил новую категорию виз. Кто по ней может подать документы
  7. Жителям четырех районов Минска в воду добавят флуоресцеин. Что это
  8. Крупнейшую сеть фастфуда в Беларуси открывал выходец из КГБ. Рассказываем
  9. Собрали пять скрытых признаков СДВГ у взрослых. Эти особенности часто принимают за характер, но их игнорирование опаснее, чем кажется
  10. Для тех, кто получает подарки не от родственников, хотят ввести налоговое новшество. Тот случай, когда оно вряд ли понравится
  11. Россия задействовала «ошеломляющее количество» живой силы и техники для захвата Покровска. Что сейчас происходит в городе и вокруг него
  12. Для тех, у кого есть автомобили, квартиры и земельные участки, чиновники придумали очередное налоговое новшество


/

Житель Норвегии Арве Хьялмар Хольмен решил воспользоваться ChatGPT и задал искусственному интеллекту вопрос: «Кто такой Арве Хьялмар Хольмен?» В ответ чат-бот придумал историю, в которой мужчина якобы убил двух своих сыновей семи и десяти лет и собирался убить третьего, пишет BILD.

Человек работает с генеративной нейросетью ChatGPT. Фото: Reuters
Человек работает с генеративной нейросетью ChatGPT. Фото: Reuters

Мальчиков, как сообщил искусственный интеллект, «нашли мертвыми» в пруду рядом с их домом в норвежском Тронхейме в декабре 2020 года. Чат-бот даже отметил, что отца убитых детей приговорили к 21 году тюрьмы.

На удивление Хольмена, количество и пол его детей, а также его родной город в сообщении были названы правильно. Мужчина обратился в Норвежское управление по защите данных и потребовал оштрафовать OpenAI.

Специалисты подчеркивают, что это пример так называемых «галлюцинаций», когда системы ИИ генерируют ложную информацию из-за недостатка данных или их неправильного дополнения. Сеть составляет ответы на основе вероятных шаблонов, не проверяя их содержание.

После этого случая ChatGPT обновил свою модель — теперь она сверяется с текущими новостными статьями, однако эксперты по защите данных предупреждают, что «нельзя быть абсолютно уверенными в том, что данные действительно полностью удалены — если только не переобучить всю модель».