Вы можете отправить нам 1,5% своих польских налогов
Беларусы на войне
  1. В Украине задержали беларусского добровольца — бывшего калиновца
  2. «Ожидают визита польского политика в Минск не ниже уровня замминистра». Rzeczpospolita — об условиях освобождения Почобута
  3. «Он дешевле в три раза, чем беларусский». Известная диетолог отправилась в итальянский «санаторий» и показывает, как там отдыхается
  4. Власти определили три района для ядерного могильника. В одном люди такого соседства не хотят
  5. Российские автопоставщики нашли лазейку, которая помогает сильно сэкономить на покупке авто из ЕС. Схема работает через Беларусь
  6. Четыре области подняли цены на проезд в общественном транспорте
  7. У налоговой могут возникнуть вопросы, если вы продали жилье и автомобиль. Что важно сделать, чтобы избежать проблем
  8. «Для чего вы нужны». БРСМ продолжает общаться с беларусами — попросил «честно» ответить на один вопрос
  9. В Минске расширят и продлят несколько улиц
  10. Что за ЧП произошло в Гродненском районе? «Зеркало» узнало подробности — есть пострадавший
  11. Еще две области подняли цены на проезд в общественном транспорте
  12. «Да, они кучка ссыкунов». Посланник Трампа рассказал, как ругался матом и пил водку вместе с Лукашенко
  13. С молотка снова пытались продать имущество Виктора Бабарико — чем закончился аукцион
  14. Узнали, что за девушка присутствует на переговорах Коула и Лукашенко


/

Французская компания Giskard выяснила: когда пользователя интересует краткий ответ, искусственный интеллект (ИИ) чаще выдает ошибку или придумывает несуществующий факт. Чем меньше слов — тем выше риск дезинформации, пишет «Хайтек».

Изображение носит иллюстративный характер. Фото: Freepik.com
Изображение носит иллюстративный характер. Фото: Freepik.com

Французская компания Giskard, которая тестирует ИИ на надежность, провела исследование и обнаружила: если попросить нейросеть ответить кратко, она чаще ошибается. Причем это касается и самых современных моделей вроде GPT-4o, Claude 3.5 Sonnet и Mistral Large.

Исследователи обнаружили, что указание вроде «будь лаконичным» мешает ИИ объяснять суть, проверять вводные и опровергать ложные предпосылки. Чем меньше слов — тем больше компромиссов с точностью. Особенно часто это происходит в вопросах, где требуется анализ, нюансы или контекст.

Более того, современные модели, рассчитанные на диалог и «дружелюбный» стиль общения, вроде GPT-4o, могут ошибаться даже чаще старых версий. А приятный тон, как выяснилось, не гарантирует достоверность.

Важное наблюдение: модели реже поправляют собеседника, если тот уверен в себе. То есть если пользователь пишет неправду с уверенностью, нейросеть с большей вероятностью согласится — особенно в сжатом формате.

Авторы исследования предупреждают: безобидные на первый взгляд формулировки вроде «сделай покороче» могут существенно испортить результат. Особенно в задачах, где важна точность — от медицинских тем до программирования.