5 technológií AI, ktoré môžu hackeri použiť hrozným novým spôsobom


Technológie AI môžu narúšať mnohé priemyselné odvetvia, ale aspoň vo väčšine prípadov vidíme, že z dlhodobého hľadiska budú užitočnejšie ako škodlivé. Tieto nové nástroje však otvárajú aj mnoho nových príležitostí pre nekalé typy.

Umelá inteligencia v prirodzenom jazyku pre preplňované phishingové útoky

Schopnosť porozumieť a vytvoriť prirodzený ľudský jazyk bolo jedným z hlavných cieľov výskumu AI od prvých dní. Dnes máme syntetickú hlasovú produkciu, vysoko sofistikované chatboty, generátory textu v prirodzenom jazyku a mnoho ďalších súvisiacich technológií poháňaných AI.

Tieto aplikácie sú ideálne na phishingové útoky, kde sa hackeri vydávajú za legitímne subjekty a ich zástupcovia ako spôsob, ako dostať z ľudí citlivé informácie. Vďaka týmto novým technológiám by ste mohli mať agentov AI, aby sa hromadne vydávali za ľudí prostredníctvom e-mailu, telefónnych hovorov, okamžitých správ alebo kdekoľvek inde, kde by sa ľudia medzi sebou rozprávali prostredníctvom počítačového systému.

Na rozdiel od phishingu, ktorý poznáme, by to bolo ako preplňovaný „oštep“ phishing, kde sú pokusy zamerané proti konkrétnym jednotlivcom s informáciami o nich, aby bol podvod efektívnejší. Softvér AI by sa napríklad mohol vydávať za niekoho šéfa a požiadať o vyplatenie peňazí na účet vo variante phishingu známeho ako podvod s generálnym riaditeľom.

Hlboké sociálne inžinierstvo

Sociálne inžinierstvo je prax v rámci hackingu, ktorá sa zameriava na slabé stránky ľudskej psychológie a správania, aby obišla prísne technologické bezpečnostné opatrenia. Hacker môže napríklad zatelefonovať sekretárke dôležitej osoby, ktorá sa vydáva za sanitárneho pracovníka, a opýtať sa jej, kde sa momentálne vyhodí ich odpad. Potom zločinec zamieri na toto miesto, aby hľadal odložené dokumenty alebo iné stopy, ktoré by sa dali poskladať a vytvoriť tak zneužitie.

Systémy hlbokého učenia, ktoré dokážu replikovať tváre a hlasy (známe ako „deepfakes), pokročili do bodu, keď ich možno používať v reálnom čase. Existujú služby, v ktorých môžete odoslať vzorky svojho vlastného hlasu a potom mať prevod textu na reč, ktorý znie rovnako ako vy. V zásade by sa takáto technológia mohla použiť na klonovanie hlasu kohokoľvek. Potom stačí zavolať alebo zavolať prostredníctvom videohovoru niekomu, kto sa vydáva za kohokoľvek, pričom najľahším cieľom sú verejné osobnosti.

Jednou z takýchto služieb je napríklad Podcastle Revoice, ktorá sľubuje „vytvorenie digitálnej kópie vášho vlastného hlasu“ na základe odoslaných hlasových vzoriek. Podcastle nám odovzdal vyhlásenie o tom, ako rieši tieto obavy:

Potenciál pre deepfakes a sociálne inžinierstvo pomocou hlasového klonovania je vážny, a preto je nevyhnutné, aby spoločnosti zmiernili možnosť zneužitia. Na vytvorenie digitálnej kópie vášho hlasu je možné použiť technológiu Revoice spoločnosti Podcastle, a preto máme jasné pokyny na vytváranie hlasov, ako aj kontroly, ktoré zabránia zneužitiu. Na vygenerovanie digitálneho hlasu na našej platforme musí používateľ odoslať nahrávku živého hlasu pozostávajúcu zo 70 odlišných viet (t. j. určených Podcastlom), čo znamená, že používateľ nemôže jednoducho použiť prednahrávka hlasu niekoho iného. Týchto 70 nahrávok potom manuálne skontroluje náš tím, aby sa zabezpečila presnosť jedného hlasu, a potom sa nahrávky spracujú prostredníctvom nášho modelu AI.

Inteligentnejšie prelomenie kódu a automatizované zisťovanie zraniteľnosti

Ľuďom trvá hodiny a hodiny prehľadávať riadky kódu, aby našli zraniteľné miesta, či už ich opravili alebo zneužili. Teraz sme videli, že modely strojového učenia, ako je ChatGPT, dokážu písať kód aj rozpoznať zraniteľné miesta v odoslanom kóde, čo otvára možnosť, že AI by mohla písať malvér skôr ako neskôr.

Malvér, ktorý sa učí a prispôsobuje prostredníctvom strojového učenia

Kľúčovou silou strojového učenia je, ako dokáže vziať obrovské množstvo údajov a získať z nich užitočné pravidlá a poznatky. Je rozumné očakávať, že budúci malvér môže využiť túto všeobecnú koncepciu na rýchle prispôsobenie sa protiopatreniam.

To môže viesť k situácii, keď sa malvér aj antimalvérové systémy efektívne stanú bojujúcimi systémami strojového učenia, ktoré sa navzájom rýchlo posúvajú na vyššiu úroveň sofistikovanosti.

Generatívna AI na vytváranie falošných údajov

Technológie AI teraz dokážu generovať obrázky, video, text a zvuk zdanlivo zo vzduchu. Tieto technológie dosiahli bod, kedy odborníci nedokážu povedať, že sú falošné (aspoň nie na prvý pohľad). To znamená, že v budúcnosti môžete očakávať záplavu falošných údajov na internete.

Napríklad falošné profily na sociálnych médiách sa v súčasnosti dajú pomerne ľahko rozpoznať, takže vyhnúť sa sumcovým podvodom alebo jednoduchým kampaniam s robotmi na rozsievanie dezinformácií nebolo pre informované publikum také ťažké. Tieto nové technológie AI by však mohli vytvárať falošné profily, ktoré sú na nerozoznanie od skutočných.

„Ľudia“ s jedinečnými tvárami s vygenerovanými fotografiami celého ich falošného života, jedinečnými súvislými profilovými informáciami a celými sieťami priateľov a rodín, ktoré pozostávajú z iných falošných ľudí. Všetci medzi sebou vedú rozhovory ako skutoční ľudia. So sieťami falošných online agentov, ako sú tieto, by zlomyseľní herci mohli spustiť rôzne podvody a dezinformačné kampane.

Je AI liekom aj chorobou?

Je nevyhnutné, aby sa niektorí ľudia pokúsili použiť akúkoľvek novú technológiu zo škodlivých dôvodov. To, čo odlišuje túto novú generáciu technológie AI, je to, že rýchlo presahuje ľudské schopnosti ju odhaliť.

To trochu ironicky znamená, že našou najlepšou obranou proti týmto útokom vylepšeným AI budú iné technológie AI, ktoré bojujú s ohňom ohňom. Zdalo by sa, že vám nezostáva nič iné, len sa pozerať na to, ako to vyvádzajú, a dúfať, že „dobrí chlapci“ vyjdú na vrchol. Napriek tomu existuje niekoľko vecí, ktoré môžete urobiť, aby ste zostali chránení online, vyhli sa ransomvéru a odhalili podvody na obľúbených platformách, ako sú Facebook, Facebook Marketplace, PayPal a LinkedIn.