menu
close

OpenAI torjui 10 valtiollista tekoälyn väärinkäyttökampanjaa

OpenAI:n kesäkuun 2025 raportti kertoo, kuinka yhtiö onnistui pysäyttämään 10 haitallista kampanjaa, joissa ChatGPT:tä käytettiin työllistymishuijauksiin, vaikuttamisoperaatioihin ja roskapostin levittämiseen vuoden 2025 alkupuolella. Monien operaatioiden taustalla olivat Kiinan, Venäjän ja Iranin valtiolliset toimijat, jotka hyödynsivät tekoälytyökaluja huijausten, kybermurtojen ja maailmanlaajuisten vaikuttamiskampanjoiden tehostamiseen. Vaikka generatiivinen tekoäly ei ole luonut täysin uusia uhkakategorioita, se on merkittävästi madaltanut teknisiä esteitä pahantahtoisille toimijoille ja lisännyt koordinoitujen hyökkäysten tehokkuutta.
OpenAI torjui 10 valtiollista tekoälyn väärinkäyttökampanjaa

OpenAI on julkaissut laajan raportin nimeltä "Disrupting malicious uses of AI: June 2025", jossa yhtiö paljastaa tunnistaneensa ja neutraloineensa 10 haitallista kampanjaa, joissa sen tekoälyjärjestelmiä hyödynnettiin vuoden 2025 ensimmäisten kuukausien aikana.

Raportissa kerrotaan, kuinka kuuden maan – Kiinan, Venäjän, Pohjois-Korean, Iranin, Kambodžan ja Filippiinien – valtiolliset toimijat ovat käyttäneet ChatGPT:tä ja muita tekoälytyökaluja työllistymishuijauksiin, vaikuttamisoperaatioihin ja roskapostikampanjoihin. Neljä näistä kampanjoista oli lähtöisin Kiinasta ja keskittyi sosiaaliseen manipulointiin, peiteltyihin vaikuttamisoperaatioihin ja kyberuhkiin.

Eräässä kampanjassa, jonka koodinimi oli "Sneer Review", kiinalaiset toimijat täyttivät sosiaalisen median alustoja kriittisillä kommenteilla, jotka kohdistuivat taiwanilaiseen lautapeliin, jossa oli Kiinan kommunistipuolueen vastaista vastarintaa käsitteleviä teemoja. Toisessa operaatiossa, nimeltään "Helgoland Bite", venäläiset toimijat tuottivat saksankielistä sisältöä, jossa arvosteltiin Yhdysvaltoja ja Natoa sekä pyrittiin vaikuttamaan Saksan vuoden 2025 vaaleihin. Pohjoiskorealaiset toimijat puolestaan käyttivät tekoälyä tuottaakseen massoittain väärennettyjä ansioluetteloita etätyötehtäviin teknologia-alalla, tavoitteenaan saada haltuunsa yritysten laitteita työn aloituksen yhteydessä.

OpenAI:n tietoturvatiimit hyödynsivät tekoälyä omien tutkimustensa tehostajana, mikä mahdollisti väärinkäytösten, kuten sosiaalisen manipuloinnin, kybervakoilun ja petollisten rekrytointikuvioiden, havaitsemisen, häirinnän ja paljastamisen. Yhtiön valvontajärjestelmät havaitsivat kaikissa kampanjoissa poikkeavaa toimintaa, mikä johti käyttäjätilien sulkemisiin ja tiedon jakamiseen yhteistyöalustoille.

"Uskomme, että avoimuus ja tiedon jakaminen lisäävät tietoisuutta ja valmiutta kaikilla sidosryhmillä, mikä johtaa vahvempaan yhteiseen puolustukseen alati kehittyviä uhkia vastaan", OpenAI totesi raportissaan. Vaikka generatiivinen tekoäly ei ole luonut täysin uusia uhkakategorioita, se on merkittävästi madaltanut teknisiä esteitä pahantahtoisille toimijoille ja lisännyt koordinoitujen hyökkäysten tehokkuutta.

Tietoturva-asiantuntijat korostavat, että organisaatioiden tulee pysyä valppaina sen suhteen, miten vastustajat hyödyntävät suuria kielimalleja toiminnassaan, ja hyödyntää reaaliaikaista tiedustelutietoa, jota yhtiöt kuten OpenAI, Google, Meta ja Anthropic jakavat, rakentaakseen vahvempaa yhteistä puolustusta näitä kehittyviä uhkia vastaan.

Source: Techrepublic

Latest News