Google запустит сервисы по этике ИИ

Google готовит к выходу новые сервисы по контролю за этикой искусственного интеллекта. С их помощью компания хочет помочь IT-компаниям контролировать нравственные вопросы технологий, такие, как расовая дискриминация, клевета и защита персональных данных.

Вопросы этичности технологий на базе искусственного интеллекта серьезно обострились на фоне протестного движения Black Lives Matter. Массовые беспорядке в США привлекли внимание к прецедентам, связанным с "нетолератностью" систем распознавания лиц. Например, в Детройте разгорелся скандал, связанный с неправомерным арестом чернокожего мужчины, которого система распознавания лиц ошибочно определила как преступника. Обвиняемый Роберт Уильямс провел 30 часов в полицейском участке прежде, чем правоохранительные органы поняли, что нейросеть просто ошиблась.

Ситуации, связанные с "неэтичным" поведением ИИ — не редкость даже для таких гигантов, как сама Google. В 2015 году компании пришлось срочно убирать из Google Photos все метки, связанные с обезьянами, так как сервис ошибочно помечал тегами "горилла" и "шимпанзе" фотографии чернокожих людей. Официально извинившись перед всеми представителями африканской расы, Google выпустила свод этических принципов использования искусственного интеллекта и, по примеру коллег из IBM, Microsoft и Amazon, отказался сотрудничества с правоохранительными органами в области распознавания лиц.

Новые продукты Google, по словам представителей компании, будут в первую очередь направлены на поддержку компаний, сталкивающихся с этическими проблемами ИИ. Одним из таких продуктов станут учебные курсы для специалистов. Обучающие материалы помогут выявить ошибки дискриминационного характера в работе нейросетей и подскажут, как исправить эти ошибки. Другой проект может быть связан с аудитом сторонних продуктов: специалисты Google будут лично проверять проекты партнеров и выявлять возможные "бреши" в алгоритмах. При этом Google пока не уточняет, будут ли все сервисы коммерческими — вероятно, часть из них может появиться в открытом доступе.

Как отмечает Трейси Фрей, участница исследовательской группы подразделения облачных сервисов Google, компания не стремится стать "полицией нравов" нового времени.

«Мы планируем пойти дальше и позволить каждому клиенту самостоятельно вырабатывать приемлемые этические нормы. Никто не будет говорить вам, что такое хорошо, а что такое плохо. Но Google крайне заинтересована в том, чтобы развертывание технологий проводилось в рамках принятых норм об этичности, толерантности и уважении к личности. Только осторожное и осознанное развитие искусственного интеллекта может сделать работу успешной.»
— Трейси Фрей, участница исследовательской группы подразделения облачных сервисов Google
Задать вопрос
Заполните форму, и наши эксперты ответят вам