Какие угрозы несут нейросети в руках злоумышленников?
Какие угрозы несут нейросети в руках злоумышленников?

Какие угрозы несут нейросети в руках злоумышленников?

4 октября, 20225 минут на чтение
1,8к

Тема нейросетей сейчас на хайпе — в Сети то и дело мелькает творчество DALL-E, и Midjourney, а на онлайн-ресурсах появляются инструкции, как развернуть популярные нейросети на своём компьютере или в «облаке» и пользоваться ими для решения каких-то персональных задач.

В связи с этим нас в «Коде Дурова» заинтересовал вопрос угроз, которые несёт широкое распространение машинного обучения, ведь в каком-то смысле нейросети становятся доступнее для пользователей, в том числе недобросовестных. А умеют эти нейросети уже довольно многое, что в том числе можно использовать далеко не в благих целях.

Об этом мы решили поговорить с Александром Гостевым, главным технологическим экспертом «Лаборатории Касперского» и одним из бессменных ведущих подкаста «Смени Пароль!».

Интервью состоялось на CyberSecutity Weekend 2022, прошедшем в сентябре в Хакасии, недалеко от Саяно-Шушенской ГЭС.

— Если говорить о недавнем прошлом, то нейросети довольно быстро освоили в области порно-дипфейков. Однако эта волна быстро сошла на нет, в том числе благодаря осознанности разработчиков и сообщества, которые не допустили распространения подобных инструментов среди широких масс. Но это ведь это далеко не единственная область потенциального применения машинного обучения. Что ещё может быть опасного? Какие примеры недобросовестного использования нейросетей могут ждать нас в обозримом будущем?

— Вообще порно двигателем технологий было всегда. Не только для нейросетей, но и в принципе. Интернет должен быть ему благодарен, поскольку видеосервисы выросли по большому счёту благодаря спросу на «клубничку».

Сейчас мы видим, что есть дипфейки. Их сначала применяли в порно, потом они пошли в народ, поэтому сейчас подделывают изображения кого угодно, как угодно, накладывая всё что угодно. И распознать это практически невозможно.

Это ведёт к тому, что злоумышленники будут стараться довести подобные технологии до уровня, когда они будут способны при помощи этих дипфейков обходить системы авторизации, например, в банках или где-то на местах, локально. Развитие дипфейков в этом ключе — это большая и перспективная проблема для различных систем авторизации.

Что касается нейросетей в целом, то давно уже говорят о том, что в какой-то момент злоумышленники начнут использовать их для проведения каких-нибудь «хитрых атак», которые смогут обходить существующие методы защиты. Например, нейросеть будет пытаться атаковать, самостоятельно анализировать, как эта атака была отбита, и быстро генерировать новый сценарий.

Здесь я более скептичен. Не думаю, что киберпреступники будут заморачиваться с машинным обучением, потому что человек с этой задачей справится быстрее и лучше. Тут я больших рисков не вижу.

Меня больше волнует вопрос того, что хакеры могут использовать нейросети для анализа украденных данных. Потому что утечки происходят постоянно, гигантские объёмы баз уже слиты.

Сейчас злоумышленников чаще всего интересует небольшой набор данных: логин, пароль, почта и так далее. И украденные гигантские базы используются далеко не на 100%, не строятся зависимости между ними. Потому что это сложно.

При этом, когда злоумышленники придумают какую-либо вещь, которая позволит брать эти данные, строить зависимости между ними, собирать различные куски информации и на основе косвенных показателей собирать более полный профиль человека — вот это может стать проблемой.

Аналогию можно провести с дата-майнингом в крупных интернет-компаниях, которые на основе разрозненных данных формируют психологический и социальный профиль, а затем начинают показывать целевую рекламу. И если этих данных хватает, чтобы вести таргетированные рекламные кампании, значит этих данных хватит для того, чтобы вести таргетированные, например, фишинговые атаки.

— А есть ли риск, что в обозримой перспективе нейросети начнут использовать для продвижения брендов или, например, политиков? Чтобы, допустим, нейросеть «ходила» по Сети, оставляла осмысленные посты, отзывы, формировала общественное мнение по поводу каких-то вопросов или «тянула» пользователя в нужную владельцу нейросети сторону?

— Нейросеть сама себе не может поставить какую-либо задачу, она выполняет вполне конкретную цель. Может ли нейросеть писать осмысленные тексты, которые бы брали за душу? Я думаю да, без проблем. У нас есть нейросети, которые пишут тексты, музыку, картинки и так далее. В плане генерации какого-то креатива они действительно прекрасно справляются. Вряд ли нейросеть будет ходить и сама что-то постить, но вот генерировать некоторые тексты в соответствии с новостной повесткой, я думаю, может.

— А если, допустим, Илон Маск соберётся в президенты США. И как один из основателей OpenAI скажет подчинённым: нужно привести к этому общественное мнение и так поставить задачу нейросети, чтобы она сама нагенерировала текстов, сама их посеяла в Сети в нужных местах. Грубо говоря, чтобы появилась оцифрованная так называемая «фабрика троллей». Может ли такое случиться в обозримой перспективе?

— С одной стороны, да, с другой стороны, есть вопрос, к чему это всё в конечном итоге приведёт. Как только появится какая-то технология, она не сможет быть эксклюзивной, ей начнут пользоваться все, и очень быстро. В какой-то момент произойдёт окончательная потеря доверия. Когда люди поймут, что вообще всё, что пишут в интернете, это боты нейросетей. Тогда всё — у тебя, как у пользователя, просто опустится планка восприятия, ты перестанешь доверять вообще всему, что там пишут. То есть такая технология сможет сработать, но мне кажется, что только один раз.

— Несколько лет назад Google публиковал нечто вроде планов о том, как компания себя представляет в будущем. Корпорация заявила, что если сейчас она отвечает на конкретные вопросы, то в будущем будет помогать принимать решения и подробно описывать, к чему приведёт то или иное событие. Какой костюм купить? Что будет, если я поссорюсь с этим человеком? К чему приведёт эта сделка в будущем? Здесь нам нейросети могут в чём-то помочь?

— Это к слову о персональных цифровых помощниках. Мне кажется, что в будущем у людей появятся собственные персонифицированные виртуальные ассистенты, которые будут знать про них всё и к которым как раз они и будут обращаться с такими вопросами. Я действительно думаю, что оно будет идти в этом направлении. И как раз благодаря тому, что это будет якобы персонифицированное устройство — оно только твоё, никому информацию не отдаёт, никто кроме тебя доступа к нему не имеет. В сравнении с тем же Google, который знает всё про всех и отдаёт это всем.

Вот когда будет решена проблема приватности — запросов, интересов и так далее, я думаю, подобная технология выстрелит. Поскольку человеку действительно нужен некий советчик, а ещё желательно тот, кто за него эти решения бы и принял.

— Но ведь есть же опасность в том, что тот, кто в эту нейросеть заливает датасет, будет влиять на то, в твоих ли интересах она будет советовать принимать то или иное решение или в чьих-то?

— Конечно. Hо в ситуации, когда мы обращаемся к друзьям и знакомым с аналогичными просьбами «а посоветуй мне тут что-нибудь», они ведь тоже могут давать тебе советы не руководствуясь конкретно твоими интересами, а какими-то своими. Здесь не появляется новых рисков в этом смысле — они остаются точно такими же.

Фото предоставлены пресс-службой «Лаборатории Касперского»

4 октября, 2022

Сейчас читают

Редакция рекомендует

Картина дня

Свежие материалы

Свежие материалы