Разделы

Интернет Веб-сервисы Цифровизация Искусственный интеллект

А вы поверили. ИИ-помощник в поиске Google ежедневно выдает миллионы ложных ответов

ИИ-ассистент в составе поисковика Google без остановки обманывает людей по всему миру. Каждый лень он выдает миллионы заведомо неверных ответов и никак это не подчеркивает, а многие пользователи принимают их на веру. Каждый десятый ответ ИИ-помощника в Google содержит в себе фактические ошибки.

Доверяй, но проверяй

Встроенные в современные поисковые системы ИИ-ассистенты, в значительной степени сокращающие время на поиск информации в Сети, регулярно подсовывают пользователям искаженные факты. Как пишет портал TechSpot, примерно каждый десятый ответ нейросети частично или полностью состоит из заведомо ложной информации.

На это указывает исследование ИИ-стартапа Oumi, проведенного по заказу издания The New York Times. В качестве испытуемого был взят ИИ-помощник Gemini в составе Google – самого популярного поисковика в мире с долей глобального рынка 89,85% (март 2026 г., StatCounter).

Согласно исследованию, ИИ-поисковик Google каждый день выдает миллионы неверных ответов. 10% всех результатов на запросы пользователей – ложные. Учитывая, что поисковая система обрабатывает около 5 трлн запросов в год, пользователи могут сталкиваться с более чем 57 млн неточных ответов каждый час или почти 1 млн в минуту.

Как проходило тестирование

Специалисты Oumi проверили точность нейросети Gemini при помощи широко распространенного бенчмарка для генеративного ИИ – SimpleQA. Они проанализировали более 4320 поисковых запросов и смогли сделать на основе полученных данных ряд выводов.

Не все ответы Google Gemini одинаково правдивы

В частности, они выяснили, что в Google явно осведомлены о том, что Gemini выдает множество неверных ответов. На это указывает то, что Gemini в версии 2 в октябре 2025 г. имела точность на уровне 85%. К февралю 2026 г, когда стала доступна Gemini 3, этот параметр подтянули до 91%.

ИИ против ИИ

Важно подчеркнуть, что специалисты Oumi исследовали правдивость ответов Gemini вовсе не вручную. Для этого они использовали свои ИИ-инструменты, то есть фактически они натравили одну нейросеть на другую.

Как пишет TechSpot, подобное может приводить к дополнительным ошибкам при подсчете результатов. Кроме того, важен и тот факт, что ИИ-ассистент поисковика Google имеет обыкновение генерировать разные ответы на один и тот же запрос, даже если между генерациями прошло всего несколько секунд.

В Google, что немаловажно, раскритиковали результаты исследования Oumi. В корпорации назвали их ошибочными и заявили, что они не отражают реальное поведение пользователей при поиске.

При этом в компании не отрицают, что Gemini 3 свойственно ошибаться. Работая независимо от Google Search, эта нейросеть выдает ложные ответы в 28% случаев, рассказали в Google.

Где же правда

Авторы исследования обратили внимание на интересный парадокс, связанный с работой Gemini в составе поискового сервиса Google. К своим ответам нейросеть прикрепляет ссылки на источники, и регулярно бывает так, что ответ Gemini не совпадает с тем, что указано в этих источниках.

В некоторых случаях некорректные ответы Gemini сразу же сопровождаются ссылкой на корректную информацию. Впрочем, бывают и прямо противоположные ситуации – нейросеть Google выдает правильный ответ на запрос пользователя, но при этом ссылается на сайт с искаженными сведениями.

Будущее за синергией RPA, GenAI и BPM-систем, управляющих их работой
Будущее за синергией RPA, GenAI и BPM-систем, управляющих их работой внедрения

Иногда случается, что на страницах, на которые ведут ссылки в выдаче Gemini, и вовсе нет никакой релевантной информации. Сотрудник CNews неоднократно сталкивался с подобным при поиске информации в Google. Что примечательно, при работе с Gemini через Google Chrome подобных курьезов было больше, чем при использовании других браузеров. Не исключено, что это совпадение.

TechSpot подчеркивает, что после выхода Gemini 3 количество расхождений между ответами, сгенерированными Gemini, и их источниками в интернете увеличилось, поднявшись с 37% поисковых запросов в Gemini 2 до 56% в Gemini 3.

Что немаловажно, Gemini 3 оказалось очень легко манипулировать. Исследователи привели в качестве примера журналиста западного издания, который специально опубликовал в личном блоге сообщение с заведомо ложной информацией. Спустя сутки Gemini стала предлагать эту информацию пользователям под видом достоверной.

Прикрыть тыл

Чтобы защитить себя, Google и другие компании, занимающиеся искусственным интеллектом, признают в условиях использования технологии лишь шаткое соответствие между реальностью и правдой. К примеру, в условиях использования ИИ-ассистента Microsoft Copilot этот сервис описывается как предназначенный для развлекательных целей, а не для принятия важных решений. В обзорах Google AI пользователям рекомендуется перепроверять ответы, а xAI признает возможность возникновения галлюцинаций.

Геннадий Ефремов



Конференция K2 Cloud Conf 2026 Конференция K2 Cloud Conf 2026

erid: 2W5zFJoBN9o

Рекламодатель: АО "К2 ИНТЕГРАЦИЯ"

ИНН/ОГРН: 7701829110/01097746072797