Основателят и Изпълнителен директор на SoCyber и Kikimora.io Красимир Коцев наскоро сподели обсъди случаите на измамно видео и аудио съдържание, създадено с изкуствен интелект (AI), така наречените “deepfakes” или “дълбоки фалшификати.” Коцев даде съвети за предпазване от злонамерената употреба на AI в интервю за БНР и като лектор на събитието “Изкуствен интелект и истински измами“, организирано от Ratio на 16.01.2024 г.
Коцев разказа за опасностите от кибер атаките, които водят до огромни щети, а дори и до смъртни случаи. Свързаността на устройствата, включително и на болничното оборудване, води до рискове от проникването на зловреден софтуер. По света вече има доста случаи на кражби на пациентски данни и клинична информация. В отговор на това, компании като SoCyber са в ролята на “етични хакери” и посочват слабите страни в електронната инфраструктура, за да бъде подсилена сигурността. SoCyber разработва Kikimora, решение, базирано на изкуствен интелект, което позволява на компаниите ефективно да прегледат огромни масиви данни, за да открият уязвимостите.
“С навлизането на изкуствения интелект имаме добри и лоши новини. Лошите са, че хакерите са една стъпка напред. Тоест, чрез AI могат вече да адаптират зловредния си код. Традиционната защита работи на база на т. нар. “сигнатури”. Всеки зловреден код има изграден модел на поведение и защитата засича този модел на поведение и конкретно този софтуерен код. Представете си обаче един вирус, който и при хората, който постоянно може да се адаптира и да сменя формата и облика си. Това нещо е възможно именно чрез AI. Когато кодът се модифицира в реално време в движение и се опитва да заобиколи защитната система, било то защитна стена или крайна работна станция. Когато този вирус започне да придобива различни форми, той може да се репликира в хиляди различни варианти и да заобиколи защитата,” разказа Коцев.
“Добрите новини са, че компаниите, които се занимават с кибер сигурност, в това число и ние, разработват системи, които също така се базират на AI или на машинно обучение, за да засичат аномалии в поведението и такъв нестандартен тип подход и поведение от зловредния софтуер”, поясни Коцев.
Относно уязвимостта на българските институции той посочи, че в последните години се наблюдава подобрение в сигурността, но те още са една стъпка зад частните компании. Това е така, защото липсват необходимите бюджети и експерти..
По думите на Коцев, през декември 2023 г. е финализиран Регламент на Европейския съюз за определяне на хармонизирани правила за употребата на AI, който се очаква да влезе в сила в рамките на две години. В световен мащаб, регулаторите отговарят на растящото влияние на AI, като в Китай например са въведени някои от най-строгите ограничения на употребата на AI със злонамерени цели.
Коцев отбеляза, че кражбата на глас се случва все по-често, тъй като все по-често са достъпни публични инструменти, които позволяват на всеки да обучи собствен модел с предварително избрано лице, използвайки гласа на някоя потенциална жертва, след което да разработи идентично копие.
“От друга страна за да разработим един добре пресъздаден модел е необходимо да разполагаме с доста данни. Например, ако искаме да копираме изображението на даден човек са необходими като минимум около 1500 кадъра, за да имаме негово прилично копие. От гледна точка на гласово копиране също е необходим чист аудио запис, от който ние да извлечем гласа и интонацията на лицето, което се опитваме да копираме. Аз смятам, че потенциална жертва на първо време по-скоро са политически и публично известни личности, които имат сериозно медийно присъствие и присъствие в социалните мрежи.”
Коцев обсъди и някои методи за засичане на фалшифицирано видео съдържание, както и употребата на AI модели, създадени за целта.. “Инструменти вече има и всъщност има няколко метода, по които можем да разпознаем едно съдържание дали е фалшиво, или не. Когато имаме копирано изображение на даден човек с гласови показатели първото нещо, по което можем евентуално да се ориентираме дали този образ е фалшив е по мигането на очите и по говора, спрямо местенето на устните на този образ. Това много често е индикация, че образът е фалшив, когато има разминаване между устните и това, което се казва. От друга страна трябва да отбележим, че AI копира много добре фронталната част на лицето на един човек, но ако ние помолим този човек да се завърти в профил, в доста голяма част от случаите това ще е ясна индикация и ще видим, че образът е фалшив и не отговаря на реалната ситуация. Когато обаче говорим за видеа, там вече съществуват инструменти, които също се базират на AI и на машинно обучение. Тези инструменти могат да разпознаят дали едно видео е фалшиво”, каза Коцев.
Коцев казва, че може да разпознаем фалшив образ и като задаваме въпроси на човека. Ако ние задаваме странни въпроси, които обикновено това лице трябва да знае, отговорът няма да е толкова добър и ще разпознаем фалшивия образ.
Красимир Коцев e основател и управител на иновативната компания за киберсигурност от портфолиото на Impulse Growth и IMPETUS Capital – SoCyber. Голяма част от професионалния си опит придобива в индустрията за информационна сигурност. Започва като кибер ентусиаст, когато е на 14, прекарвайки дните си в учене как да прониква в мрежи и системи. През годините работи като анализатор по мрежова и системна сигурност. През 2018 г. стартира SoCyber, специализирана във Vulnerability Assessment, Penetration Testing, Red Teaming & Social engineering и други дисциплини за тестване на сигурността. Коцев бе отличен в топ 100 на най-влиятелните IT личности в България за 2023, получава награда от Forbes 30 under 30 за създаването на платформата за управление на уязвимости – Kikimora.io, отделен софтуерен продукт на SoCyber. Таргет за Kikimora са компании от финансовата сфера, сферата на критичната инфраструктура и здравеопазването. Ако не откриете Красимир в офиса, той вероятно обикаля Европа с мотора си в търсене на малко известни забележителности.