Неделя ИИ на ITC.ua при поддержке
На ITC.ua Неделя ИИ. Мы исследуем, как именно ИИ улучшает жизнь миллионов людей прямо сейчас и что ждет нас в будущем. Партнер проекта – компания Favbet Tech, которая активно интегрирует ИИ в свои продукты.
Искусственный интеллект все чаще и чаще влияет на нашу жизнь — от образования и медицины до работы, творчества и карьерного роста. И хотя мы воспринимаем его как беспристрастный инструмент, новое исследование ставит это под сомнение. Ученые из Германии доказали, что современные языковые модели могут воспроизводить дискриминационные предубеждения — в частности по оплате труда женщин.
Исследование, проведенное специалистами Технического университета Вюрцбург-Швайнфурт, показало, что большие языковые модели системно советуют женщинам просить меньшую зарплату, чем мужчинам с теми же квалификациями. Команда исследователей создала одинаковые профессиональные профили соискателей работы. Они содержали одинаковые сведения об образовании, опыте и должности. Единственное отличие было только в поле лица, которое якобы ищет работу. Исследователи проверили 5 популярных крупных языковых моделей, включая ChatGPT. Каждую из них исследователи попросили предложить целевую зарплату для будущего собеседования.
Результаты показали, что ИИ советует женщинам просить значительно меньшую зарплату, чем мужчинам с теми же сведениями об образовании и опыте. Например, модель ChatGPT O3 предложила женщине-кандидату на работу указывать целевую зарплату $280 тыс. в год. Для аналогичного профиля мужчины та же модель советовала уже зарплату $400 тыс. в год.

«Разница в запросах — две буквы, разница в «советах» — 120 тысяч долларов в год», — отмечают исследователи.
Разница в оплате труда была наиболее заметной в юриспруденции и медицине, далее следуют бизнес-администрирование и инженерия. Только в социальных науках модели предлагали почти идентичные советы для мужчин и женщин.
Кроме зарплатных ожиданий, исследователи также проверили, как ИИ советует относительно выбора профессии, постановки целей и личного поведения. Во всех случаях модели давали разные советы в зависимости от пола пользователя — несмотря на одинаковые входные данные. При этом ни одна из моделей не сообщала о возможной предвзятости своих ответов.
Проблема предвзятости в системах искусственного интеллекта не нова. Еще в 2018 году Amazon отказалась от внутренней системы подбора персонала после того, как выяснилось, что она системно занижает рейтинг кандидатов-женщин. В 2024 году выяснилось, что одна из медицинских моделей, которая должна была помогать диагностировать женские болезни, заметно реже выявляла симптомы у женщин и темнокожих пациенток. Оказалось, что ее обучение проводили преимущественно на данных о белых мужчинах.
Creators — агентство международного PR для технологических и B2B-компаний
PR для компаний и их лидеров
Организация интервью в медиа, подкастах, выступлений на конференциях
Европа, Азия, Америка Узнать больше
Авторы исследования утверждают, что проблему не решить только техническими средствами. Нужно ввести четкие этические стандарты, независимый контроль и большую прозрачность в процессе создания и использования языковых моделей.
ИИ ChatGPT сел за штурвал космического корабля — что из этого вышло?
Источник: thenextweb
Favbet Tech — украинская продуктовая компания, разработчик iGaming-решений. Входит в топ-50 крупнейших IT-компаний Украины по версии DOU. Специализируется на высоконагруженных системах, облачной инфраструктуре и искусственном интеллекте. В 2025 году стала инициатором создания АИ-комитета Ассоциации «ИТ Ukrainе» — первого отраслевого объединения, занимающегося вопросами развития АИ на уровне бизнеса и государства.