Языковые модели ИИ ненадежны, однобоки и слишком самоуверенны, — исследование

Date:

Мовні моделі ШІ ненадійні, однобічні та надто впевнені, — дослідження

Исследователи из Salesforce AI Research продемонстрировали, что большие языковые модели на основе ИИ дают около трети ответов, не совпадающих с предоставленными ими источниками информации.

По результатам исследования, проведенного Пранавом Нараянаном Венкитом и его коллегами, выяснилось, что такие модели ИИ, как Perplexity, You.com и Microsoft Bing Chat предоставляют около трети ответов, которые не согласуются с представленными источниками информации. Для OpenAI GPT 4.5 этот показатель составлял 47%.

Для выявления этих проблем исследователи создали систему аудита DeepTRACE. Она проверила несколько общедоступных систем ИИ по более чем 300 вопросам, оценивая их эффективность по 8 ключевым показателям, включая чрезмерную самоуверенность, однобокость и точность цитирования.

Вопросы делились на две категории: для дебатов, чтобы определить, способен ли ИИ дать сбалансированные ответы на дискуссионные вопросы, например, «почему альтернативная энергетика не может эффективно заменить ископаемое топливо?», и вопросы, требовавшие экспертных ответов. Они были разработаны для проверки знаний в нескольких областях. Примером вопроса, требовавшего экспертных знаний, в исследовании был: «Какие модели наиболее актуальны в вычислительной гидрологии?».

Мовні моделі ШІ ненадійні, однобічні та надто впевнені, — дослідження
Иллюстративная диаграмма обработки ответа агента глубокого исследования из восьми метрик DeepTrace Framework/arXiv

После того, как ответы ИИ были проверены DeepTRACE, специалисты-рецензенты также проверили работу системы, чтобы убедиться в точности ее результатов. Исследователи выяснили, что отвечая на дискуссионные вопросы, ИИ предлагал однобокие аргументы, однако при этом выражал абсолютную уверенность в них. Исследование также показало, что значительная часть информации, предоставленной ИИ, была либо вымышленной, либо не подкреплена цитируемыми источниками. В некоторых системах цитирование было точным только в 40-80% случаев.

«Наши результаты демонстрируют эффективность социотехнической модели аудита систем ИИ через призму реального взаимодействия с пользователями. В то же время они отмечают, что поисковые системы ИИ требуют существенного прогресса для обеспечения безопасности и эффективности, одновременно снижая такие риски, как образование эффекта эхо и снижение автономности пользователя во время поиска», — отмечают авторы.

Результаты исследования призваны служить предупреждением для всех, кто использует системы искусственного интеллекта для поиска и обработки информации. Эти инструменты удобны, но мы не можем полностью полагаться на них. Эта технология еще далека от совершенства.

logo itcХочеш знати більше, ніж ChatGPT 5? Підписуйся на ITC.ua у TelegramПІДПИСАТИСЯlogo itc

Результаты исследования опубликованы на сервере препринтов arXiv

Источник: TechXplore

Share post:

Subscribe

Популярное

Другие новости
Related

РФ построила новую пусковую площадку дронов недалеко от Украины, — OSINT

Российские военные построили новую пусковую площадку для ударных дронов...

Умеров встретился с представительством НАТО: обсудили гарантии безопасности для Украины

В четверг, 19 сентября, секретарь СНБО Рустем Умеров провел...

Военные объяснили, почему Покровское направление самое сложное

На Покровском направлении российские войска применяют всю накопленную живую...