В 2009 году пользователи из Азии сообщали, что цифровая камера просила их не моргать, когда они фотографировали с открытыми глазами. Камера была японской фирмы Nikon. В 2015 году Google пришлось принести извинения, когда его фотоприложение ошибочно приняло чернокожего пользователя за гориллу, что показало, что алгоритмы не свободны от предвзятости, несмотря на их кажущуюся беспристрастность. Этот инцидент привлек внимание к проблеме, которая медленно развивалась в течение многих лет.
Неудивительно, что программы искусственного интеллекта унаследовали предубеждения общества, учитывая, что они обучены человеческим решениям и наборам данных, собранным людьми. Проблема в том, что алгоритмы обладают налетом нейтральности, который может скрывать коварные социальные предрассудки. К примеру, в 2018 году Amazon пришлось отказаться от инструмента подбора персонала с использованием искусственного интеллекта, разработанного на основе заявлений о приеме на работу, которые компания получала в течение десяти лет, — их программа, верная послужному списку технологической индустрии, демонстрировала предвзятое отношение к женщинам.
Есть несколько причин, по которым алгоритм может быть предвзятым или несправедливым. Во-первых, потому что он отражает общество, воспроизводя уже существующую несправедливую динамику. Также может быть, что данные обучения искажены или проблема была неправильно определена. Или, может быть, инженеры добавляют свои собственные предубеждения.
Каждый алгоритм, оказывающий социальное воздействие, предвзят.
Технологи невольно увековечивают стереотипы и предрассудки общества. 🙁
Если алгоритм распознавания лиц с трудом различает лица чернокожих и азиатов, обучающий набор данных, вероятно, нуждается в большем разнообразии.
все впереди)
Кстати, существует ИИ, предназначенный для обнаружения предвзятости в других ИИ.))