Anthropic har introduceret en specialiseret samling af AI-modeller kaldet Claude Gov, der er udviklet udelukkende til amerikanske nationale sikkerhedsformål. Disse modeller anvendes allerede af agenturer på de højeste niveauer inden for amerikansk efterretning og forsvar, hvor adgangen er strengt begrænset til personale, der arbejder i klassificerede miljøer.
Claude Gov-modellerne er udviklet på baggrund af direkte feedback fra regeringskunder for at imødekomme reelle operationelle behov. I modsætning til de standard Claude-modeller, der er tilgængelige for forbrugere og virksomheder, er disse specialversioner konstrueret til bedre at håndtere følsomt materiale, og Anthropic anerkender, at de "afviser mindre, når de arbejder med klassificeret information".
Ifølge Thiyagu Ramasamy, chef for Public Sector hos Anthropic, "Det, der gør Claude Gov-modellerne specielle, er, at de er skræddersyet til vores kunder inden for national sikkerhed. Ved at forstå deres operationelle behov og inddrage feedback fra virkeligheden har vi skabt et sæt sikre, pålidelige og kapable modeller, der kan præstere under de unikke krav og begrænsninger, der findes i klassificerede miljøer."
Modellerne tilbyder forbedrede funktioner, der er særligt tilpasset myndigheders behov, herunder bedre forståelse af efterretnings- og forsvarsdokumenter, større sproglig kompetence i sprog, der er kritiske for national sikkerhed, samt bedre fortolkning af komplekse cybersikkerhedsdata. Kunder inden for national sikkerhed kan bruge disse AI-systemer til strategisk planlægning, operationel støtte, efterretningsanalyse og trusselsvurdering.
Anthropics indtog i forsvarssektoren afspejler en bredere tendens blandt førende AI-virksomheder. OpenAI søger aktivt tættere samarbejde med det amerikanske forsvarsministerium, Meta har gjort sine Llama-modeller tilgængelige for forsvarspartnere, og Google udvikler versioner af sin Gemini AI til klassificerede miljøer. Dette konkurrenceprægede landskab understreger den voksende betydning af AI i nationale sikkerhedsanvendelser og kapløbet blandt teknologigiganter om at sikre sig en position på dette lukrative marked.
Selvom modellerne er tilpasset nationale sikkerhedsformål, understreger Anthropic, at Claude Gov har gennemgået samme grundige sikkerhedstest som virksomhedens øvrige AI-systemer. Det afspejler Anthropics engagement i ansvarlig AI-udvikling, selv når virksomheden udvider til følsomme regeringsoperationer.