В 2023 году мы полностью вступили в эпоху искусственного интеллекта (ИИ). С появлением таких мощных приложений, как ChatGPT, Bard или Midjourney v5, количество возможных приложений увеличилось. Не только при создании текста, но и при создании изображений, аудио, видео и другой продукции. Многие из этих инструментов равны или превосходят возможности человека при выполнении сложных задач. Например, GPT-4 уже оценивается в 90-м процентиле человеческих способностей по тестам SAT, что эквивалентно отбору в североамериканской системе образования, по LSAT, который является вступительным тестом в юридические школы в США, или по BAR. , вступительный экзамен в ассоциацию адвокатов в этой стране и считается одним из самых требовательных тестов в мире. Это означает, что 90% людей получают результаты хуже, чем эти системы искусственного интеллекта. Таким образом, мы имеем дело с программным обеспечением, которое демонстрирует несомненные характеристики интеллекта. По крайней мере, интеллект и способности, как мы их измеряли на сегодняшний день.
Помимо ограничений, которые все еще наблюдаются в системах ИИ, особенно в генеративных системах ИИ, очевидно, что последствия их разработки и внедрения будут масштабными. Дебаты о ее влиянии на демократию только начались, и все, кажется, указывает на то, что даже создатели этих систем не способны этого предвидеть. В любом случае я считаю, что его последствия можно разделить на четыре широкие категории:
1. Безопасность
Первое будет в сфере безопасности. ИИ позволит разрабатывать новые сложные наступательные и оборонительные вооружения. Сегодня уже идут дискуссии, например, о необходимости запрета полностью автономного летального оружия. Это оружие, весь цикл использования которого, от идентификации цели до авторизации и выполнения приказа на убийство, осуществляется ИИ. Вполне вероятно, что будет достигнут глобальный консенсус по запрету этого оружия из-за риска, который оно может представлять. Никто не хочет, чтобы ИИ обладал всеми возможностями казнить людей.
Мы также знаем, что оружие, оснащенное искусственным интеллектом, может быть использовано для атаки на стратегическую инфраструктуру государств, такую как электрические сети или телекоммуникационные системы. Аналогично, взаимодействие ИИ и биологического оружия может привести к распространению последнего. Любой, у кого есть доступ к достаточно мощному ИИ, может научиться настраивать биологическое оружие и создавать его из продуктов, доступных широкой публике. В прошлом серьезным препятствием на пути этих разработок было отсутствие знаний о биологии и оружии; ИИ разрушает этот барьер. И это один из фундаментальных рисков ИИ: учитывая его низкую и снижающуюся стоимость, он устранит барьер для доступа к множеству типов оружия. Это плохая новость для государств, в том числе стран с развитой демократией, которые обладали монополией на определенные виды военного потенциала.
ChatGPT-4 уже достигает 90-го процентиля человеческих результатов по тестам SAT, отборочному тесту североамериканской образовательной системы, а также по LSAT, который является вступительным тестом в юридические школы в США.
ИИ также представляет собой особую проблему для демократий: его способность усиливать дезинформацию. В последние месяцы мы увидели, как ИИ может с легкостью создавать полностью фальшивые изображения и видео. Это было возможно и раньше, но с новыми инструментами это стало еще проще и дешевле. Весьма вероятно, что наши избирательные процессы будут окружены более изощренными кампаниями по дезинформации с широким использованием фейковых видео, аудио и изображений. Серьезным испытанием станет 2024 год, когда пройдут выборы в Евросоюзе, США, Мексике, Индии и других демократических странах. Можно представить, что эти кампании вмешательства даже персонализированы, что создаются явно фальшивые профили в социальных сетях, что они индивидуально взаимодействуют с тысячами людей одновременно и что они передают подрывные сообщения и призывы нанести ущерб избирательному процессу или подорвать демократические институты. легитимность. Если мы добавим к этому тот факт, что новые поколения все чаще получают информацию через сети, можно будет оценить масштаб проблемы.
Конечно, есть решения этих рисков. Необходимо будет работать с разработчиками инструментов ИИ, чтобы гарантировать, что их использование не будет вредным и их деятельность можно будет отслеживать. Также с сетями, чтобы они контролировали контент, распространяемый через их каналы, и чтобы они начали действовать как настоящие посредники контента, а не как простые доски объявлений; то, чем они давно перестали быть. Государствам также придется укрепить свой потенциал мониторинга и вмешаться, когда кампании достигнут определенного масштаба. В конечном итоге нам понадобятся граждане, которые лучше осведомлены о рисках сетей и привыкли проверять все, что видят и слышат, искать надежные источники и сравнивать информацию. Возможно и желательно, чтобы этот процесс шума в сетях помог еще раз оценить традиционные средства массовой информации, которые живут за счет правдивости того, чем они делятся с общественностью.
2. Экономика
Второй областью воздействия ИИ станет экономика, а также производство и распределение доходов. Приложения искусственного интеллекта будут создавать и уничтожать рабочие места. Совокупный эффект пока неясен, но кажется разумным предположить, что они вытеснят весьма сложные и высокооплачиваемые рабочие места. ИИ смогут выполнять задачи по обслуживанию клиентов, настраивать контракты и контролировать их соблюдение, давать советы по налоговым вопросам, писать тексты, генерировать сложные изображения или помогать в медицинских консультациях. Мы уже видели забастовку сценаристов в Голливуде, обеспокоенных использованием ИИ киностудиями. Возможно также, что эти технологии еще больше способствуют концентрации доходов в определенных видах капитала; в данном случае высокопроизводительный технологический капитал. Если это так, то революция искусственного интеллекта может продолжать способствовать опустошению западного рабочего среднего класса, которое мы уже наблюдаем за последние три десятилетия. Это опустошение центра нашего распределения доходов сопровождалось опустошением политического центра на Западе и ростом национального популизма. Таким образом, влияние ИИ на занятость и модель производства может усугубить социальный и политический кризис в странах с развитой демократией.
Поэтому надлежащее управление этими технологиями становится необходимым. Необходимо будет обеспечить соответствующее налогообложение с использованием эффективных налогов на капитал. Кроме того, сдерживаются возможные эффекты концентрации рынка, возникающие в результате развертывания систем искусственного интеллекта. И чтобы населению были предоставлены возможности обучения для доступа к рабочим местам будущего.
3. Легитимность демократий
Третья категория воздействия ИИ на демократию включает его влияние на легитимность самой политической модели. Демократии пользуются большой легитимностью, потому что это системы, которые, лучше или хуже, они слушают своим гражданам. Действительно, в демократической модели именно граждане посредством своего вмешательства выражают свои предпочтения и формируют политическое тело. Свобода прессы, выражения мнений, объединений или право голоса являются механизмами, посредством которых предпочтения граждан учитываются в процессе достижения консенсуса и принятия решений. То есть свобода личности является краеугольным камнем демократической политической системы. Теперь, с появлением передовых систем искусственного интеллекта, возникает другая модель. Тот, в котором предпочтения граждан не прислушиваются, а скорее выводятся из их контролируемого поведения. Эта система, получившая наибольшее распространение в Китае, начинается со сбора как можно большего количества информации о своих гражданах. Есть те, кто назвал эту реальность состояние наблюдения поскольку мониторингу подлежат практически все стороны жизни гражданина. После сбора этой информации, которая поступает из государственных, а также из частных источников, поскольку частные компании вынуждены передавать информацию своих клиентов государству, она объединяется государственными организациями в обширные базы данных. Здесь нет разделения информации или ограничений на уровень агрегирования. Отсюда анализ данных и системы искусственного интеллекта используются для знания и, возможно, прогнозирования поведения граждан. Самая добрая версия этой системы изображает ее как нечто, способное управлять сложными обществами и…