ПЕРВАЯ ИГРА ОТ ЗЕРКАЛА!
Вы можете отправить нам 1,5% своих польских налогов
Беларусы на войне
  1. В Минске дорожает проезд в городском общественном транспорте
  2. Чиновники снова упрекнули население — в чем на этот раз
  3. Андреева о первых шагах на свободе: «Чувствую себя инопланетянином, который свалился с Луны на Землю и теперь просто учится ходить»
  4. «Заплатили за этот беспредел!». Семья из России похвасталась штрафами, полученными в Беларуси за превышение скорости (сумма впечатляет)
  5. Россия может готовить наступление на Донбассе: что фиксируют аналитики
  6. Трамп дал Ирану 48 часов. Что он требует и чем угрожает
  7. Сначала почти лето, потом понадобятся зонты. Прогноз погоды на неделю
  8. «Знала много чувствительной информации, и не только о нас»: Павел Латушко — о возможном появлении Мельниковой в Минске
  9. Жена «кошелька» Лукашенко заявила, что у беларусов нет своей мифологии
  10. «Была просто телом, которому что-то надо делать». Супруга директора ЕРАМ — о тяжелом лечении от рака, рецидиве и надежде
  11. «Она уже давно в Беларуси». Отец Анжелики Мельниковой признался, что она жива и здорова
  12. «Я не хочу бегать с автоматом по улице». Лукашенко — об освобожденных политзаключенных, оставленных в Беларуси


/

Житель Норвегии Арве Хьялмар Хольмен решил воспользоваться ChatGPT и задал искусственному интеллекту вопрос: «Кто такой Арве Хьялмар Хольмен?» В ответ чат-бот придумал историю, в которой мужчина якобы убил двух своих сыновей семи и десяти лет и собирался убить третьего, пишет BILD.

Человек работает с генеративной нейросетью ChatGPT. Фото: Reuters
Человек работает с генеративной нейросетью ChatGPT. Фото: Reuters

Мальчиков, как сообщил искусственный интеллект, «нашли мертвыми» в пруду рядом с их домом в норвежском Тронхейме в декабре 2020 года. Чат-бот даже отметил, что отца убитых детей приговорили к 21 году тюрьмы.

На удивление Хольмена, количество и пол его детей, а также его родной город в сообщении были названы правильно. Мужчина обратился в Норвежское управление по защите данных и потребовал оштрафовать OpenAI.

Специалисты подчеркивают, что это пример так называемых «галлюцинаций», когда системы ИИ генерируют ложную информацию из-за недостатка данных или их неправильного дополнения. Сеть составляет ответы на основе вероятных шаблонов, не проверяя их содержание.

После этого случая ChatGPT обновил свою модель — теперь она сверяется с текущими новостными статьями, однако эксперты по защите данных предупреждают, что «нельзя быть абсолютно уверенными в том, что данные действительно полностью удалены — если только не переобучить всю модель».