Вы можете отправить нам 1,5% своих польских налогов
Беларусы на войне
  1. «Совет мира» вместо Белого дома. Почему Трамп понизил формат встречи с Лукашенко?
  2. Литовец приехал в Беларусь навестить родственников и получил 15 лет лишения свободы — Dissidentby
  3. Мобильные операторы вводят изменения для клиентов
  4. В Польше проверяют беларусского оппозиционера, который оказался в центре крупного скандала. Его биография не сходится с документами
  5. Вынесли приговор одному из руководителей ювелирного бренда Belaruskicry, объявленного «экстремистским формированием»
  6. Не любил Париж, описал беларусскую мечту, спасал людей от НКВД. Объясняем в 5 пунктах, каким был этот классик на самом деле
  7. Лукашенко до сих пор не может забыть и простить американского миллиардера, которого видел 30 лет назад. Вот что между ними произошло
  8. «Уже зае**ло одно и то же». Масштабная проверка боеготовности по заказу Лукашенко закончилась, но людей до сих пор держат на полигонах
  9. В обращении появятся 50 рублей весьма необычной формы — если вам выдадут сдачу ими, то не удивляйтесь
  10. Могут ли власти аннулировать паспорта уехавших, как сейчас делают это с экс-политзаключенными? Позвонили в МВД
  11. «Хотят закрыть дыру, удержать людей в здравоохранении». Медик о том, почему в медвузы страны больше не будут набирать платников
  12. Стоимость топлива резко повышают. Что говорят о ценах на него в «Белоруснефти»
  13. «Он не разбился». Чемпион Беларуси по мотокроссу умер в 17 лет


/

Французская компания Giskard выяснила: когда пользователя интересует краткий ответ, искусственный интеллект (ИИ) чаще выдает ошибку или придумывает несуществующий факт. Чем меньше слов — тем выше риск дезинформации, пишет «Хайтек».

Изображение носит иллюстративный характер. Фото: Freepik.com
Изображение носит иллюстративный характер. Фото: Freepik.com

Французская компания Giskard, которая тестирует ИИ на надежность, провела исследование и обнаружила: если попросить нейросеть ответить кратко, она чаще ошибается. Причем это касается и самых современных моделей вроде GPT-4o, Claude 3.5 Sonnet и Mistral Large.

Исследователи обнаружили, что указание вроде «будь лаконичным» мешает ИИ объяснять суть, проверять вводные и опровергать ложные предпосылки. Чем меньше слов — тем больше компромиссов с точностью. Особенно часто это происходит в вопросах, где требуется анализ, нюансы или контекст.

Более того, современные модели, рассчитанные на диалог и «дружелюбный» стиль общения, вроде GPT-4o, могут ошибаться даже чаще старых версий. А приятный тон, как выяснилось, не гарантирует достоверность.

Важное наблюдение: модели реже поправляют собеседника, если тот уверен в себе. То есть если пользователь пишет неправду с уверенностью, нейросеть с большей вероятностью согласится — особенно в сжатом формате.

Авторы исследования предупреждают: безобидные на первый взгляд формулировки вроде «сделай покороче» могут существенно испортить результат. Особенно в задачах, где важна точность — от медицинских тем до программирования.