
Компания Google удалила часть автоматически сгенерированных ответов в функции AI Overviews после расследования британского издания The Guardian, в котором было выявлено наличие серьезных ошибок в медицинской информации, предоставляемой пользователям.
Как сообщает The Guardian, журналисты обнаружили, что искусственный интеллект Google выдавал потенциально опасные и вводящие в заблуждение данные по ряду медицинских запросов. Одним из наиболее проблемных примеров стал ответ на вопрос о «нормальном диапазоне показателей печеночных анализов крови». Вместо развернутого и корректного объяснения система предоставляла лишь набор числовых значений без какого-либо контекста — без учета возраста, пола, этнической принадлежности, сопутствующих заболеваний и других факторов, которые имеют ключевое значение при интерпретации таких анализов.
Эксперты отмечают, что подобные упрощенные ответы могут привести к неправильному самодиагностированию, ложному чувству безопасности или, наоборот, необоснованной тревоге у пользователей, что особенно опасно в сфере здравоохранения.
На фоне выявленных нарушений Google приняла решение временно отключить функцию кратких ИИ-сводок для ряда чувствительных медицинских тем. В частности, ограничения коснулись запросов, связанных со здоровьем печени, онкологическими заболеваниями и психическим здоровьем. Однако, как подчеркивает The Guardian, проблема была устранена лишь частично: при использовании альтернативных формулировок или медицинских синонимов — например, запроса «референтный диапазон теста LFT» — AI Overviews по-прежнему могут появляться в результатах поиска.
В официальном комментарии представитель Google заявил, что компания не комментирует отдельные случаи удаления контента из поисковой выдачи. При этом он подчеркнул, что в ситуациях, когда ИИ-сводкам не хватает необходимого контекста или точности, компания работает над масштабными улучшениями системы, а также принимает меры в соответствии с внутренними политиками.
Скандал вновь поднял вопрос об ответственности технологических компаний за использование генеративного ИИ в чувствительных областях, таких как медицина. Критики указывают, что даже при наличии предупреждений пользователи склонны воспринимать информацию из поисковой системы как достоверную, что усиливает риски распространения дезинформации.
Расследование The Guardian стало еще одним сигналом для регуляторов и разработчиков о необходимости более строгого контроля и прозрачности при внедрении ИИ-инструментов в поисковые и информационные сервисы.






