Поговорим о том, как искусственный интеллект может нам навредить. В одном из прошлых подкастов мы разобрались c вопросом, стоит ли бояться за свою работу в связи с массовым приходом artificial intelligence. Подумаем вместе с экспертом департамента аналитических решений ГК «КОРУС Консалтинг» Светланой Вронской, стоит ли нам бояться за нашу жизнь в мире, в котором искусственный интеллект так прочно занял место?
Последние десять лет исследователи в разных странах много изучают угрозы, которые злонамеренное использование ИИ представляет для общества в целом и отдельных сфер человеческой деятельности, будь это политика, экономика, оборонно-промышленный комплекс или что-либо другое. До того, как посмотреть, какие блоки угроз существуют в настоящий момент, давайте еще раз договоримся об одной вещи: искусственный интеллект как таковой не опасен. Попросту говоря — это просто компьютерная программа. Она написана людьми, управляется людьми и может быть уничтожена людьми. Кого же нам тогда опасаться? А опасаться надо как раз этих самых людей, которые владеют технологиями разработки решений на базе искусственного интеллекта.
Именно эти люди, злонамеренно использующие или потенциально имеющие возможность использовать ИИ, заставляют исследователей делить риски на три группы. Первая и самая распространенная (хочется сказать, слава богу, так как остальные группы навредят нам на порядок сильнее) – это кибербезопасность. Хакерские атаки, сливание в сеть персональных данных клиентов различных компаний, рассылка массовых вирусов – уже давно это не является для нас новостью. Однако, чем опасны в этом отношении системы на базе искусственного интеллекта, так это в том, что AI-злодеи способны не просто залезть в вашу компьютерную сеть по предписанному алгоритму. Оказавшись внутри сети или устройства, эти злонамеренные системы способны «подумать» о том, как нанести максимальный ущерб.
Один из страшных примеров в этой области показал нам IBM. Корпорация создала Deeplocker, казалось бы, невинную систему для видеоконференцсвязи. Правда цель у этой системы была совсем не невинная. DeepLocker нес в себе заряд вируса WannaCry, но если бы этот вирус запустили во всю компьютерную сеть, то велика вероятность, что системные администраторы в какой-то момент распознали угрозу, нейтрализовали ее и с компьютерами тех пользователей, которые и были основной целью заражения, ничего плохого бы не случилось. Вирус бы уничтожили еще до того, как он бы дошел до них. Именно поэтому и придуман DeepLocker. Мирная система видеоконференцсвязи и работает как мирная система видеоконференцсвязи. Во время видео-колла, DeepLocker сканирует лица собеседников, находит и распознает с помощью встроенного ИИ-инструмента нужного человека и в его компьютер уже сливает заразу в виде WannaCry. Радует, что IBM придумал этот продукт в качестве теста-предостережения, но в следующий раз, когда будете подключаться по Zoom или Google Meet, подумайте, так ли вы хотите, чтобы ваши коллеги и клиента вас видели?
Я привела только один пример, но мы должны ожидать, что количество кибератак будет расти, а с ним будет расти и использование в них искусственного интеллекта. Ведь уже, cогласно исследованию производителя антивирусов MсAfee, во время пандемии каждую минут совершается 375 попытка киберпреступления.
Отойдем от компьютера и подумаем о более серьезных вещах. Вторая область, где злоумышленники могут использовать иcкусственный интеллект – это угроза жизнедеятельности человека. Возьмем, к примеру, дрон, который можно оснастить системой распознавания лиц и оружием, и представим, что его запустили в область (город, район, квартал, улицу), где живет потенциальная цель. Наверно, мне не нужно рассказывать, что будет дальше.
Еще одним жутковатым примером может служить ситуация, в которой злоумышленник захватывают системы управления беспилотным трафиком или энергетическими комплексами и намеренно вызывают аварии, взрывы и прочие катастрофы.
Специалисты прогнозируют, что защититься в этой области от искусственного интеллекта будет труднее всего, так как для защиты потребуются инвестиции в оборудование и программное обеспечение, которые сможет предотвращать подобные роботизированные атаки.
Третьей областью, в которой злонамеренное использование технологии может вызвать, беду это использование ИИ для дестабилизации международных отношений путем целевого информационно-психологического воздействия на людей. Звучит несколько пафосно, но суть проста. Давайте вообразим себе, что нам и нашим друзьям рассылают в мессенджере информацию о митинге на какую-то очень важную для нас тему. Мы приходим на этот митинг, а там… Дальше может быть, что угодно – от массовой бомбардировки собравшихся до сбора митингующих в автозаки. И мы никогда не узнаем, что сообщения рассылал чатбот, чья задача была - сконструировать сообщение о подложном мероприятии и убедить потенциальных жертв его посетить
Менее страшные, но от этого не менее не неприятные примеры – это сбор и обработка данных о пользователей соцсетей и интернет-пользователей для запуска точечной пропаганды. Мы все помним скандал с Cambridge Analytica после президентских выборах в США, но ведь большая часть айсберга просто скрыта от публики. Недавно американская технологическая компания NVIDIA поделилась результатами работы генеративно-конкурентной сети, обученной генерировать самостоятельно изображения людей (fakе people). Нейросеть за секунды создает в большом разрешении изображения лиц несуществующих людей, может добавлять любые культурные и этнические особенности, эмоции, настроение и основана на бесконечной коллекции изображений реальных лиц. А потом, потенциально, это изображение может обращаться лично к вам и что-то просить лично у вас. И, поверьте, вам будет очень трудно отказаться, так как этот fake person будет сконструирован так, чтобы вызвать эмпатию именно у вас.
Итак, что же сделать, чтобы защитить себя и своих близких от подобных угроз? Вы знаете, при подготовке этого подкаста я специально почитала, что же рекомендуют ведущие исследователи этой проблемы. Честно? Они пишут очень общие вещи, сводящиеся к тому, что давайте жить дружно и соблюдать этический кодекс использования искусственного интеллекта. Мне кажется, что это неконкретные рекомендации, поэтому вот вам пара моих мыслей о том, что же делать, чтобы ИИ-преступники не застали нас врасплох.
Во-первых, изучать и использовать искусственный интеллект. Cогласно исследованию Capgemini Research Institute, 69% компаний в мире считают, что противостоять подобным угрозам без AI невозможно. Поэтому давайте будем на шаг (а лучше на два) впереди злоумышленников, создавая системы защиты еще до того, как они нам понадобятся.
Во-вторых, думать. Понимаю, что это звучит банально, но подумайте сейчас, скольких «друзей» в соцсетях вы знаете лично? Привыкайте общаться только с теми, кого вы персонально знаете и можете проверить поступившую информацию по различным источникам. Изучайте первоисточники новостей и не верьте тому, что показывают по телевизору.
В-третьих, фокусируйте свои усилия на использовании искусственного интеллекта для благих целей. Существует целый пласт кейсов использования AI, не выходящих за рамки этики, которые, тем не менее вызывают нарекания. Могу привести в качестве примера так называемый predictive policing – применение ИИ в правоохранительных органов для предотвращения преступлений. В Штатах эта система уже давно вызывает вопросы, так как склонна безапелляционно относить к группе подозреваемых чернокожих молодых людей, а в некоторых государствах от подобных систем уже отказываются. Подобные истории можно встретить и с применением искусственного интеллекта в судебной системе, в системе образования (при процедуре поступления в ВУЗы) и других отраслях, где AI служит платформой для дискриминации людей по таким признакам, как пол, цвет кожи, возраст, доход и так далее.
В общем, чем больше усилий мы потратим по разработке ИИ-решений для мирных целей, тем меньше времени у злоумышленников будет на теракты в самом широком смысле этого слова.
Источник: Tadviser