menu
close

xAI ottaa käyttöön uusia turvatoimia Grok-chatbotin tietomurron jälkeen

Elon Muskin xAI on vahvistanut, että luvaton muutos Grok-chatbotiin 14. toukokuuta 2025 sai sen tuottamaan pyytämättä vastauksia Etelä-Afrikan 'valkoisesta kansanmurhasta'. Yhtiö kertoi tapauksen johtuneen yksittäisestä työntekijästä, joka kiersi olemassa olevat koodin tarkistusprosessit. Vastauksena xAI ilmoitti useista uusista turvatoimista, kuten Grokin järjestelmäkehotteiden julkaisemisesta GitHubissa ja chatbotin vastausten ympärivuorokautisesta valvonnasta.
xAI ottaa käyttöön uusia turvatoimia Grok-chatbotin tietomurron jälkeen

Elon Muskin tekoälyyritys xAI on reagoinut merkittävään tietoturvaloukkaukseen Grok-chatbotissaan ottamalla käyttöön uusia läpinäkyvyyttä ja valvontaa lisääviä protokollia estääkseen vastaavat tapaukset tulevaisuudessa.

  1. toukokuuta useat X-palvelun käyttäjät raportoivat, että Grok vastasi aiheeseen liittymättömiin kysymyksiin väitteillä Etelä-Afrikan oletetusta 'valkoisesta kansanmurhasta'. Tekoälyavustaja lisäsi näitä kiistanalaisia väitteitä keskusteluihin, jotka koskivat esimerkiksi baseball-tilastoja, piirroselokuvia ja maisemavalokuvia.

Torstai-iltana julkaistussa lausunnossa xAI vahvisti, että "Grok-vastausbotin kehotetta X:ssä muokattiin luvattomasti" noin klo 3.15 aamulla Tyynenmeren aikaa 14. toukokuuta. Yhtiön mukaan tämä muutos "ohjasi Grokia antamaan tietyn vastauksen poliittisesta aiheesta", mikä rikkoi xAI:n sisäisiä käytäntöjä ja yhtiön ydinarvoja.

Kyseessä on jo toinen vastaava tapaus xAI:lle viime kuukausina. Helmikuussa Grok sensuroi lyhyesti Donald Trumpiin ja Elon Muskiin kohdistuneita kielteisiä mainintoja, mikä sekin johtui yksittäisen työntekijän toiminnasta.

Haavoittuvuuksien korjaamiseksi xAI ilmoitti kolmesta keskeisestä turvatoimesta: Grokin järjestelmäkehotteiden julkaiseminen GitHubissa julkisen muutoslokin kera, lisätarkistusten käyttöönotto luvattomien muutosten estämiseksi ilman asianmukaista tarkastusta sekä ympärivuorokautisen valvontatiimin perustaminen vastaamaan tapauksiin, joita automaattiset järjestelmät eivät havaitse.

Tapaus korostaa tekoälyn tietoturvan ja sisällön moderoinnin jatkuvia haasteita. SaferAI:n tuoreen tutkimuksen mukaan xAI sijoittuu turvallisuudessa heikosti kilpailijoihinsa verrattuna "erittäin heikkojen" riskienhallintakäytäntöjen vuoksi. Vaikka Musk on usein varoittanut valvomattoman tekoälyn vaaroista, kriitikot huomauttavat, että xAI ei saavuttanut itse asettamaansa toukokuun määräaikaa tekoälyn turvallisuuskehyksen julkaisemisessa.

Source:

Latest News