Почему люди пока не доверяют искусственному интеллекту

Уже не одно десятилетие умы ученых, а также IT-специалистов-практиков заняты разработкой и попытками внедрения искусственного интеллекта (ИИ) в алгоритмы различного программного обеспечения, как для узкоспециализированных отраслей, так и в повседневной жизни. Этот путь наполнен не только большими и маленькими победами и успехом, но и такими же большими ошибками и разочарованием.

Искусственный интеллект (англ. artificial intelligence, AI) — свойство интеллектуальных систем выполнять творческие функции, которые традиционно считаются прерогативой человека.

Алгоритмы ИИ к настоящему времени уже применяются в областях, которые оказывают огромное влияние на жизнь граждан, поэтому вполне понятно наше желание оградить себя от возможных ошибок систем автоматического принятия решений и связанных с этим последствий. Читая в прессе об очередном курьезном случае или даже скандале или трагедии, связанной с применением технологии искусственного интеллекта, у широкой общественности справедливо закрадывается недоверие. Для стран с развитой судебной системой и влиятельным общественным мнением — это вполне очевидная причина оспорить те или иные решения, принятые с использованием искусственного разума.

Ошибка искусственного интеллекта          Ошибка камеры с искусственным интеллектом

Ошибка ИИ Тесла          Ошибка boeing 737

Искусственный интеллект давно научили обыгрывать профессионалов в шахматы, распознавать человеческую речь, ставить медицинские диагнозы, рисовать, сочинять музыку. Но ИИ, применяемый в настоящем времени, еще не достиг такого уровня развития, чтобы безоговорочно превзойти человеческий разум, вероятно, мы увидим это в будущем.

Согласно прогнозам расходы на ИИ возрастут до 52,2 миллиарда долларов в 2021 году. Темпы развития этой доли рынка поражают — ежегодный рост порядка 30 % и соответственно ему увеличивается количество скандалов, связанных с применением ИИ.

Перспективы массового внедрения систем, основанных на автоматическом принятии решений, весьма заманчивы, тем не менее, необходимо иметь в виду риски, связанные с их применением, и соответствующим образом контролировать и регулировать эту деятельность. Институтом искусственного интеллекта (AI Now Institute) были сформулированы рекомендации по разработке принципов управления этими мощными технологиями. К слову, отчет института о развитии ИИ за 2019 год можно найти по ссылке.

  1. Правительствам необходимо регулировать ИИ, расширяя полномочия отраслевых агентств по надзору, аудиту и мониторингу этих технологий по отраслям.

Внедрение систем искусственного интеллекта быстро расширяется без адекватных режимов управления, надзора или подотчетности. Такие сферы, как здравоохранение, образование, уголовное правосудие и социальное обеспечение, имеют свою собственную историю, нормативную базу и опасности. Нам нужен отраслевой подход, который не ставит технологию в приоритет, а фокусируется на ее применении в конкретной области.

  1. Распознавание лиц и эмоций нуждаются в жестком регулировании для защиты общественных интересов.

Такое регулирование должно включать в себя национальные законы, требующие строгого надзора, четких ограничений и публичной прозрачности. Люди должны иметь право отвергать применение этих технологий, как в государственном, так и в частном контексте. Простого публичного уведомления об их использовании недостаточно, и необходим высокий порог для любого согласия, учитывая опасность репрессивного и постоянного массового наблюдения. Распознавание эмоций заслуживает особого внимания. Увязка эмоций с наймом, доступом к страхованию, образованию и полицейской службе создает серьезные риски, как на индивидуальном, так и на общественном уровне.

  1. Индустрия искусственного интеллекта срочно нуждается в новых подходах к управлению.

Важным компонентом является государственное регулирование, но ведущие компании в индустрии искусственного интеллекта также нуждаются во внутренних механизмах ответственности в части применения технологий, которые выходят за рамки этических принципов. Предлагается использовать представительство рядовых сотрудников в совете директоров, внешние консультативные советы по вопросам этики и независимый мониторинг.

  1. Компании, работающие с ИИ должны отказаться от коммерческой тайны и других юридических претензий, которые стоят на пути подотчетности в государственном секторе.

Поставщикам и разработчикам, создающим ИИ и автоматизированные системы принятия решений для использования в правительстве, необходимо отказаться от любой коммерческой тайны или других юридических претензий, которые препятствуют полному аудиту и пониманию их программного обеспечения.

  1. Технологические компании должны обеспечивать защиту лиц, отказывающихся от службы по соображениям совести, организациям сотрудников и этическим информаторам.

Технологические компании обязаны предоставлять этический выбор сотрудникам в том, над какими проектами они работают. Это должно включать в себя четкую политику, защищающую отказников по соображениям совести, гарантирующую работникам право знать, над чем они работают, и возможность воздерживаться от такой работы без наказания. Необходима защита работников, поднимающих этические проблемы, а также тех, кто выступает с разоблачениями в общественных интересах.

  1. Агентства по защите прав потребителей должны применять законы «правды в рекламе» к продуктам и услугам ИИ.

Ажиотаж вокруг искусственного интеллекта только растет, что приводит к увеличению разрыва между маркетингом и фактическими свойствами продукта. Вместе с этим возрастают риски, как для частных лиц, так и для коммерческих клиентов, часто с серьезными последствиями. Как и другие продукты и услуги, которые потенциально могут серьезно повлиять на население или эксплуатировать его, поставщики ИИ должны придерживаться высоких стандартов в отношении того, что они могут обещать, особенно когда научные данные, подтверждающие эти обещания, недостаточны, а долгосрочные последствия неизвестны.

  1. Технологические компании должны выйти за рамки «конвейерной модели» и взять на себя обязательства по решению вопросов дискриминации на рабочих местах.

Технологические компании и область искусственного интеллекта в целом стремятся обучать и нанимать как можно больше разнообразных сотрудников. Существует риск упустить из виду случаи дискриминации людей по полу, расе, сексуальности или инвалидности. Компаниям необходимо внимательно отслеживать проблемы на своих рабочих местах, а также взаимосвязь между культурами отчуждения и продуктами, которые они создают, чтобы избежать закрепления предвзятости и дискриминации. Это должно сопровождаться практическими действиями, включая обязательство покончить с неравенством в оплате труда и обеспечении прозрачности найма персонала.

  1. Честность, ответственность и прозрачность в ИИ требуют детального описания «полной цепочки поставок».

Для обеспечения значимой ответственности нам необходимо лучше понимать и отслеживать составные части системы ИИ и полную цепочку поставок, на которую она опирается: учет происхождения и использования обучающих и тестовых данных, моделей, интерфейсов прикладных программ и других инфраструктурных компонентов в течение жизненного цикла продукта. Полная цепочка поставок также включает в себя понимание истинных экологических и трудовых затрат систем искусственного интеллекта.

  1. Необходимо увеличение финансирования и поддержки для судебных разбирательств, организации труда и участия общественности в вопросах ответственности ИИ.

Люди, наиболее подверженные риску вреда от систем искусственного интеллекта, часто являются теми, кто менее всего способен оспорить результаты. Мы нуждаемся в более активной поддержке надежных механизмов правовой защиты и гражданского участия. Это включает в себя поддержку общественных адвокатов, которые представляют тех, кто отрезан от социальных услуг из-за алгоритмического решения, поддержку общественных и профсоюзных организаций.

  1. Программы университетов по изучению искусственного интеллекта не должны ограничиваться дисциплинами информатика и вычислительная техника.

ИИ начинался как междисциплинарная область, но за прошедшие десятилетия сузился и превратился в техническую дисциплину. С ростом применения систем искусственного интеллекта к социальным областям ему необходимо расширить свою дисциплинарную ориентацию, в том числе за счет социальных и гуманистических направлений. Усилия ИИ, которые действительно хотят решить социальные проблемы, не могут оставаться исключительно в рамках компьютерных наук и инженерных факультетов, где преподаватели и студенты не обучены исследовать социальный мир.

Следование приведенным выше рекомендациям в сфере управления и регулирования разработкой и внедрением систем принятия автоматических решений способно упорядочить взаимодействие заинтересованных сторон, минимизировать манипуляции, повысить ответственность разработчиков и снизить недоверие общественности, обобщая — увеличить пользу от применения технологии и снизить риски.

Поделиться: