Key takeaways
- Eksperter sier at AI-assisterte nettangrep kan hacke seg inn i dataene dine.
- Den anerkjente cybersikkerhetseksperten Bruce Schneier sa på en nylig konferanse at han er stadig mer bekymret for AI-penetrasjon av datasystemer.
- Et AI-drevet nettangrep ble lansert mot TaskRabbit i 2018, som kompromitterte 3,75 millioner brukere.
Hackere kan snart fordype seg i datamaskinen din ved hjelp av kunstig intelligens.
Den anerkjente cybersikkerhetseksperten Bruce Schneier fort alte nylig på en konferanse at han er bekymret for at AI-penetrasjon av datasystemer er uunngåelig. Eksperter sier at AI-angrep er en økende trussel.
"Med AI som blir stadig mer nyttig fra et hackingperspektiv, kan dataene til brukere og forbrukere være betydelig mer utsatt," sa Andrew Douglas, en cybersikkerhetsekspert ved Deloitte Risk & Financial Advisory, i et e-postintervju. "Hackere ser vanligvis etter det enkleste målet med minst mulig innsats, og AI vil tillate dem å målrette mot flere mennesker med bedre forsvar på kortere tid."
Schneier var den siste som varslet om farene ved AI. "Ethvert godt AI-system vil naturlig finne hacks," sa Schneier angivelig på den nylige konferansen. "De finner nye løsninger fordi de mangler menneskelig kontekst, og konsekvensen er at noen av disse løsningene vil bryte forventningene mennesker har - derav et hack."
AI-telefoner inn i hjemmet ditt
Hackere bruker allerede AI for å lirke inn i datamaskiner. Ett AI-drevet nettangrep ble lansert mot TaskRabbit i 2018, og kompromitterte 3.75 millioner brukere, men viser seg å være usporbare, sa Chris Hauk, en talsmann for forbrukervern ved nettstedet Pixel Privacy, i et e-postintervju.
"Angrepet ble lansert av hackere som brukte et stort botnett kontrollert av AI, som brukte slavede maskiner til å utføre et massivt DDoS-angrep på TaskRabbits servere," la han til.
Maskinlæringsalgoritmer ble brukt for å lykkes med å penetrere systemer hos Defcon tilbake i 2016, bemerket Ray Walsh, en datapersonvernekspert hos ProPrivacy, i et e-postintervju. På den tiden konkurrerte syv lag om DARPAs Grand Challenge for å vinne en premie på $2 millioner. "Under utfordringen brukte konkurrenter AI for å finne sårbarheter, lage utnyttelser og distribuere patcher via automatiserte midler," la han til.
Bruce Young, professor i cybersikkerhet ved Harrisburg University of Science and Technology, sa i et e-postintervju at AI blir brukt til å kontrollere botnett, en gruppe kompromitterte datamaskiner under kontroll av en dårlig skuespiller som brukes til å angripe andre datamaskiner.
"AI kan brukes til å automatisk samle inn en persons informasjon, for eksempel bank, medisinsk, førerkort, bursdager," sa han. "De kan formulere et sofistikert phishing-forsøk og levere til en bruker en e-post som ser ut til å være legitim."
AI kan brukes til å hacke ved å oppdage sårbarheter og utnytte dem, sa Paul Bischoff, personvernforkjemper ved nettstedet Comparitech, i et e-postintervju.
AI og maskinlæring kan oppdage mønstre som mennesker ville savnet. Disse mønstrene kan avsløre svakheter… AI kan deretter utnytte disse sårbarhetene…
"AI og maskinlæring kan oppdage mønstre som mennesker ville savne," la han til. "Disse mønstrene kan avsløre svakheter i et måls cybersikkerhet eller operasjonelle sikkerhet. AI kan da utnytte disse sårbarhetene mye raskere enn et menneske, men også mer fleksibelt enn en tradisjonell bot."
AI kan endre og forbedre sine angrep uten menneskelig innspill, sa Bischoff.
"AI er spesielt godt egnet til å skjule og kan gjemme seg i et system der den høster data eller starter angrep over lang tid," la han til.
Beskytt deg mot AI
Dessverre er det ikke noe spesifikt brukere kan gjøre for å beskytte seg mot AI-baserte hacks, sa Bischoff.
"Bare følg de vanlige retningslinjene," sa han. "Minimer ditt digitale fotavtrykk, oppdater programvaren din, bruk antivirus, bruk en brannmur, last kun ned anerkjent programvare fra anerkjente kilder, ikke klikk på lenker eller vedlegg i uønskede meldinger."
Men, gjør deg klar for flere AI-veiledede angrep.
"AI brukes både til cybersikkerhet og cyberangrep, og i fremtiden kan vi se AI-systemer angripe hverandre," sa Bischoff. "For eksempel kan AI brukes til å identifisere ikke-menneskelig atferd og iverksette tiltak mot roboter. Omvendt kan AI brukes av roboter for å etterligne menneskelig atferd mer nøyaktig og omgå botdeteksjonssystemer."
Statssponsede grupper vil være en sannsynlig kilde til AI-hack i fremtiden, sa Kris Bondi, administrerende direktør i cybersikkerhetsfirmaet Mimoto, i et e-postintervju.
"Denne kategorien fører allerede til en økning i brudd som blir stadig mer sofistikerte," la Bondi til. "Hvis AI effektivt brukes til hacking, vil det sannsynligvis bety enda flere bruddforsøk som er enda mer sofistikerte. Dette har implikasjoner for enkeltpersoner, infrastruktur, bedriftsspionasje og nasjonal sikkerhet."