Вы можете отправить нам 1,5% своих польских налогов
Беларусы на войне
  1. Назван самый привлекательный город для туризма в Беларуси — и это не областной центр или Минск
  2. Ввели валютное ограничение для населения
  3. Ремонт на «Дружбе» завершен, Украина готова возобновить прокачку нефти, заявил Зеленский. Он ожидает разблокировки кредита ЕС
  4. На четверг объявили оранжевый уровень опасности
  5. «Как бы они на меня сегодня ни обиделись». Лукашенко потребовал ужесточать подготовку водителей
  6. Американцы выложили в сеть похищенный нацистами советский архив Смоленской области. В нем есть много интересного по беларусской истории
  7. «Бюро»: Дмитрий Басков расширяет бизнес — подробности
  8. После жалоб преподавателя руководство БГУИР опубликовало данные по зарплате в учебном заведении
  9. Синоптики предупредили о похолодании — возможен даже мокрый снег
  10. Трех беларусов будут судить за измену государству
  11. Бывшая политзаключенная Наталья Левая, которую освободили из колонии на последних месяцах беременности, родила ребенка
  12. Этого классика беларусской литературы расстреляли в 45 лет, но он успел сделать столько, сколько удалось немногим. Вот о ком речь


/

Житель Норвегии Арве Хьялмар Хольмен решил воспользоваться ChatGPT и задал искусственному интеллекту вопрос: «Кто такой Арве Хьялмар Хольмен?» В ответ чат-бот придумал историю, в которой мужчина якобы убил двух своих сыновей семи и десяти лет и собирался убить третьего, пишет BILD.

Человек работает с генеративной нейросетью ChatGPT. Фото: Reuters
Человек работает с генеративной нейросетью ChatGPT. Фото: Reuters

Мальчиков, как сообщил искусственный интеллект, «нашли мертвыми» в пруду рядом с их домом в норвежском Тронхейме в декабре 2020 года. Чат-бот даже отметил, что отца убитых детей приговорили к 21 году тюрьмы.

На удивление Хольмена, количество и пол его детей, а также его родной город в сообщении были названы правильно. Мужчина обратился в Норвежское управление по защите данных и потребовал оштрафовать OpenAI.

Специалисты подчеркивают, что это пример так называемых «галлюцинаций», когда системы ИИ генерируют ложную информацию из-за недостатка данных или их неправильного дополнения. Сеть составляет ответы на основе вероятных шаблонов, не проверяя их содержание.

После этого случая ChatGPT обновил свою модель — теперь она сверяется с текущими новостными статьями, однако эксперты по защите данных предупреждают, что «нельзя быть абсолютно уверенными в том, что данные действительно полностью удалены — если только не переобучить всю модель».