Поддержать команду Зеркала
Беларусы на войне
  1. «Однозначно установить запрет на использование». Нацбанк объявил, что хочет ввести очередное ограничение — какое на этот раз
  2. Поймали таинственного зверя, пугавшего жителей Сеницы и Прилук
  3. Светлана Тихановская получает от правительства Литвы 35 тысяч евро в месяц? Что ответили в Офисе и МИД
  4. «Не держу вокруг себя трусов». В 18 лет учащийся гомельского колледжа проснулся под дулом пистолета и попал в колонию — поговорили с ним
  5. На БелАЭС сработала сигнализация — второй энергоблок отключили от сети
  6. «Приходят десятки сообщений, что ужесточается контроль на границе». Узнали, как сейчас силовики ищут участников протестов 2020 года
  7. Последние инициативы Трампа заставили Кремль вспомнить старые нарративы. Но озвучивают их уже с новой целью — рассказываем подробности
  8. Мобильные операторы вводят изменения. Клиентам дали несколько дней, чтобы перейти на новые услуги
  9. Беларус вернулся на родину из Литвы — его судили и дали два года колонии с крупным штрафом
  10. «А мне воняет не гарью, а кошачьим туалетом». Беларусы возмущаются, что пакеты в магазинах неприятно пахнут. Объясняем почему
  11. У Николая Лукашенко увеличился один из бюджетных источников дохода — его отец подписал указ
  12. «Преступная война Путина приближается к нашим границам». Российские беспилотники атаковали польский завод


/

Житель Норвегии Арве Хьялмар Хольмен решил воспользоваться ChatGPT и задал искусственному интеллекту вопрос: «Кто такой Арве Хьялмар Хольмен?» В ответ чат-бот придумал историю, в которой мужчина якобы убил двух своих сыновей семи и десяти лет и собирался убить третьего, пишет BILD.

Человек работает с генеративной нейросетью ChatGPT. Фото: Reuters
Человек работает с генеративной нейросетью ChatGPT. Фото: Reuters

Мальчиков, как сообщил искусственный интеллект, «нашли мертвыми» в пруду рядом с их домом в норвежском Тронхейме в декабре 2020 года. Чат-бот даже отметил, что отца убитых детей приговорили к 21 году тюрьмы.

На удивление Хольмена, количество и пол его детей, а также его родной город в сообщении были названы правильно. Мужчина обратился в Норвежское управление по защите данных и потребовал оштрафовать OpenAI.

Специалисты подчеркивают, что это пример так называемых «галлюцинаций», когда системы ИИ генерируют ложную информацию из-за недостатка данных или их неправильного дополнения. Сеть составляет ответы на основе вероятных шаблонов, не проверяя их содержание.

После этого случая ChatGPT обновил свою модель — теперь она сверяется с текущими новостными статьями, однако эксперты по защите данных предупреждают, что «нельзя быть абсолютно уверенными в том, что данные действительно полностью удалены — если только не переобучить всю модель».