Страх — это эмоция, которая возникает, когда мы чувствуем опасность или думаем, что можем оказаться в ней. Он имеет очевидную ценность для выживания, поскольку заставляет нас быть настороже (хотя иногда может блокировать нас) и подготавливает нас к действию, либо убегая, либо противодействуя причине нашего страха. Отличие от других живых существ, которые тоже могут чувствовать страх, состоит в том, что наше может иметь воображаемую причину, независимо от того, имеет она основу или нет.
«Следует ли нам бояться искусственного интеллекта?» — спросили меня. Есть те, кто говорит, что чувствуют это, и очевидно, что есть те, кто хочет вселить этот страх в наши тела. Однако я задам себе другой вопрос, более соответствующий ответам, которые я хочу дать, и который покажется более полезным читателю: каковы риски ИИ? Я не намерен давать исчерпывающий ответ, что-то невозможное с другой стороны, но намерен дать вам представление о том, с чем мы столкнулись.
Те, кто сомневается в беспилотных автомобилях из-за конкретной аварии, не помнят, что ежегодно в мире из-за дорожно-транспортных происшествий погибает более миллиона человек, причем большинство из-за человеческой ошибки.
Поскольку страх и восприятие риска очень индивидуальны, я спросил своих студентов, о чем, по их мнению, нам следует беспокоиться в условиях бума искусственного интеллекта. Я преподаю им искусственный интеллект на факультете компьютерной инженерии, поэтому информационные технологии и, в частности, интеллектуальные технологии являются частью их повседневной жизни и вскоре станут их основными инструментами или самой целью их профессии.
Ответы, которые они мне дали, не отличаются от тех, которыми изобилуют СМИ и даже специализированные СМИ. Больше всего в ИИ беспокоят предвзятость, возможное отсутствие конфиденциальности, ошибки, допущенные машинами, иногда массовые, проблемы безопасности и некоторые другие вещи. Проблемы, которые в целом не являются специфичными для ИИ, хотя и могут их усугублять. В любом случае, способ предотвратить и смягчить их последствия — добиться успеха в разработке и использовании систем на основе искусственного интеллекта.
Предвзятости и конфиденциальность
Предвзятость — одна из главных проблем, с которыми сталкиваются люди, когда мы говорим об ИИ. Эти машины обычно наследуются от наших через данные, которыми мы передаем алгоритмы машинного обучения. Системы распознавания лиц, которые хуже работают с темнокожими людьми, и программы найма работников, дискриминирующие женщин, являются двумя примерами явно негативных предубеждений. Недавно компания Bloomberg обнаружила, что изображения, созданные приложением на основе генеративного искусственного интеллекта, идентифицируют большинство профессий с мужчинами, а наиболее высокооплачиваемые — с людьми со светлым оттенком кожи.
Обеспечить конфиденциальность наших личных данных становится все труднее. По мере развития ИИ, тем больше у него возможностей, чтобы быть вездесущим и контролировать все, как Большой Брат в книге. 1984 г., написанный Джорджем Оруэллом. Конфиденциальность или ее отсутствие присутствует практически в каждом разговоре об основных рисках ИИ. В конце концов, благодаря уже доступным технологиям контролировать себя очень легко. Более того, именно мы постоянно разглашаем свои данные, делаем ли мы это сознательно или нет.
Есть те, кто думает, что значительная часть решений этих и других потенциальных проблем ИИ будет включать внедрение твердых этических принципов разработки, маркетинга и использования ИИ, но это не так. Наличие этической основы для ИИ представляет интерес и, конечно, может быть очень полезным, но прежде всего оно будет предвосхищать, направлять и дополнять любое законодательное развитие, а не заменять его. Если что-то действительно важно, это должно быть регламентировано, а не оставлено на добровольное подчинение каждого человека.
Трудности регулирования
Давайте подумаем, например, о дилеммах, связанных с автономным вождением. Заранее извиняясь за жестокость примера, в условиях неминуемого дорожно-транспортного происшествия задумаемся над следующей дилеммой: а) машина продолжает движение прямо и наезжает на человека, который неожиданно перебегает нам дорогу; б) повернуть налево и столкнуться с автомобилем, едущим навстречу нам, или в) повернуть направо и врезаться в стену. Принятие решения в таких обстоятельствах — это не то, что водитель может сознательно сделать за десятые доли секунды, но автономный автомобиль может. Фактически, он может сделать это за миллисекунды и с гораздо большим объемом информации, чем мы. Должно ли решение быть оставлено на усмотрение этики производителя или страховой компании? Возможно, на усмотрение каждого водителя, решение, которое будет принято при покупке автомобиля, с возможностью передумать в любом случае позже? Должен ли случай руководить автомобилем в таких дилеммах? Регулировать эти вещи, несомненно, будет очень сложно и противоречиво. Однако, хотя законы всегда можно усовершенствовать, их отсутствие обычно является одним из худших решений, особенно когда человеческие жизни могут быть потеряны или разрушены.
Возможна ли полная безопасность?
Я продолжу на примере беспилотных автомобилей говорить о других проблемах, которые также волнуют нас: безошибочность и безопасность систем на основе искусственного интеллекта. Давайте по частям. Ум и непогрешимость несовместимы. Мы можем гарантировать правильный результат при решении операций с матрицами, какими бы большими и сложными они ни были, но мы не можем гарантировать, что с автономным автомобилем не произойдет аварий или даже что он иногда не вызывает их вследствие своих ошибок. в принятии решений. Рост интеллекта машин, необходимый для решения все более сложных задач, несовместим с непогрешимостью, как, с другой стороны, происходит у людей. Наверняка по этой причине каждый раз, когда беспилотный автомобиль попадает в серьезную аварию, особенно когда люди погибают или получают серьезные ранения, в средствах массовой информации всего мира появляются новости, призывающие не только к крайним мерам предосторожности при производстве и использовании этих транспортных средств, но и разумным, но ставящим под сомнение само развитие этого типа технологий. Такой подход парадоксален, поскольку ежегодно в мире из-за дорожно-транспортных происшествий погибает более миллиона человек, подавляющее большинство из которых вызваны человеческими ошибками. Мы должны помнить, что автономные транспортные средства — это не просто способ сэкономить, но и спасти жизни.
Чем мощнее и универсальнее технология, тем больше она имеет тенденцию усиливать различия между ее «владельцами» или «производителями» и ее «потребителями», а ИИ является самым разрушительным из всех созданных нами технологий.
Мы также не можем гарантировать полную безопасность того, что оставляем в руках ИИ. Не только потому, что в нашей жизни нет ничего определенного, за исключением того факта, что на данный момент и в какой-то момент мы все это потеряем, но и потому, что сами возможности ИИ усиливают слабость и уязвимость того, что мы до сих пор воспринимал как должное. . Подключенный к Интернету автомобиль можно взломать, взяв его под контроль. Медицинские изображения могут быть изменены, генерируя ложноположительные или ложноотрицательные результаты, и в этом случае медицинским специалистам будет сложно их обнаружить. Но возможность сбоев и атак не должна вызывать тревогу, хотя мы, конечно, должны позаботиться о том, чтобы их избежать.
Неравенство и технологическая безработица
Что меня больше всего удивило, так это то, что мои студенты почти не высказывались по вопросам, которые кажутся мне особенно тревожащими, например, социально-экономическое неравенство или технологическая безработица, которые усугубляются растущим присутствием ИИ в нашей жизни и в наших задачах. Возможно, мои студенты не осознают проблему технологической безработицы, потому что мало кто из них работает, или потому, что они считают, что в профессиональном плане они могут быть активными, хотя и непроизвольными, агентами ускорения технологической безработицы, но никогда не теми, кто страдает от ее последствий. Большая ошибка. Ни одна профессия, даже ваша, через несколько лет не будет такой, как сегодня, не говоря уже о всей вашей трудовой жизни. Мало кто исчезнет, вопреки тому, что часто говорят, но почти все в большей или меньшей степени трансформируются, а многие связанные с ними задачи будут автоматизированы. Это будет означать исчезновение многих рабочих мест, и хотя, вероятно, будет создано больше, чем исчезнет, как говорят нам почти все исследования и отчеты, новые рабочие места не будут заполнены теми, кто потеряет свои из-за…