Вы можете отправить нам 1,5% своих польских налогов
Беларусы на войне
  1. Сталкера, который привязал к машине Анны Бонд красно-зеленый флажок, нашли. Что было дальше
  2. «Сенсационные результаты». Эксперты рассказали, кто контролирует рынок новых автомобилей в Беларуси
  3. Зеленский: «Поручил по соответствующим каналам предупредить фактическое руководство Беларуси о готовности Украины защищать свою землю»
  4. Ответственность для нетрезвых самокатчиков ужесточили, а для «случайных» бесправников — смягчили. В ГАИ рассказали об изменениях
  5. Кто тот иностранец, которого обвиняют в убийстве жены и изнасиловании падчерицы в Добруше
  6. На аукцион выставили ТЦ известного бизнесмена, который признан политзаключенным. Его задержали в аэропорту после возвращения в Беларусь
  7. Беларусы вскоре столкнутся с еще одним финансовым ограничением в ЕС — подробности
  8. Синоптики рассказали, когда придет похолодание
  9. «Опасная эскалация». В ООН призвали Беларусь приостановить введение в действие подписанного накануне Лукашенко закона
  10. Банки продолжают пересматривать ставки по кредитам на Geely. Под какой процент теперь можно взять такой заем
  11. Офис студии ZROBIM architects работает. Узнали, что интересовало силовиков
  12. В Шумилино пьяный мужчина отобрал у милиционера пистолет, приставил его к голове сотрудника и нажал на курок — видео
  13. «Будете картошку перебирать, его позовите!» Экс-министр внутренних дел Караев проинспектировал фермы — получилась пародия на Лукашенко
  14. Лукашенко подписал указ о призыве офицеров запаса на военную службу


/

Французская компания Giskard выяснила: когда пользователя интересует краткий ответ, искусственный интеллект (ИИ) чаще выдает ошибку или придумывает несуществующий факт. Чем меньше слов — тем выше риск дезинформации, пишет «Хайтек».

Изображение носит иллюстративный характер. Фото: Freepik.com
Изображение носит иллюстративный характер. Фото: Freepik.com

Французская компания Giskard, которая тестирует ИИ на надежность, провела исследование и обнаружила: если попросить нейросеть ответить кратко, она чаще ошибается. Причем это касается и самых современных моделей вроде GPT-4o, Claude 3.5 Sonnet и Mistral Large.

Исследователи обнаружили, что указание вроде «будь лаконичным» мешает ИИ объяснять суть, проверять вводные и опровергать ложные предпосылки. Чем меньше слов — тем больше компромиссов с точностью. Особенно часто это происходит в вопросах, где требуется анализ, нюансы или контекст.

Более того, современные модели, рассчитанные на диалог и «дружелюбный» стиль общения, вроде GPT-4o, могут ошибаться даже чаще старых версий. А приятный тон, как выяснилось, не гарантирует достоверность.

Важное наблюдение: модели реже поправляют собеседника, если тот уверен в себе. То есть если пользователь пишет неправду с уверенностью, нейросеть с большей вероятностью согласится — особенно в сжатом формате.

Авторы исследования предупреждают: безобидные на первый взгляд формулировки вроде «сделай покороче» могут существенно испортить результат. Особенно в задачах, где важна точность — от медицинских тем до программирования.