Een nieuw gepubliceerd onderzoek stelt dat de federale overheid zich op kunstmatige intelligentie stort op dezelfde manier als een decennium geleden bij cloud computing, en met dezelfde structurele kwetsbaarheden nog steeds aanwezig.
Samenvatting
- ProPublica-verslaggever Renee Dudley put uit jarenlange federale cybersecurity-verslaggeving om drie waarschuwende lessen te schetsen terwijl de Trump-regering instanties aanspoort om snel AI-tools van OpenAI, Google en xAI over te nemen tegen gereduceerde overheidsprijzen
- De eerste les: zogenaamde gratis of goedkope tech-deals sluiten instanties uiteindelijk op; de tweede: toezichtprogramma's zoals FedRAMP zijn uitgehold en missen middelen om te controleren wat ze goedkeuren; de derde: de externe auditors die AI-providers beoordelen worden door diezelfde providers betaald
- Het Witte Huis presenteert AI-adoptie als urgent en competitief, wat de taal weerspiegelt die de Obama-regering gebruikte om cloud computing te pushen, een transitie waarvan ProPublica's verslaggeving ontdekte dat deze vol cybersecurity-fouten zat
ProPublica's Renee Dudley publiceerde op 6 april een onderzoek waarin gesteld wordt dat terwijl de Trump-regering federale instanties aanmoedigt om snel AI van grote techbedrijven over te nemen, het de patronen herhaalt die Washington's transitie naar cloud computing teisterden, waar snelheid belangrijker was dan veiligheid, toezicht werd gedefundeerd, en de overheid uiteindelijk sterk afhankelijk werd van contractanten waarover ze weinig invloed had.
Het Witte Huis heeft AI gepositioneerd als een nationaal concurrentievermogen imperatief. Instanties kunnen nu OpenAI's ChatGPT gebruiken voor $1, Google's Gemini voor 47 cent per gebruiker, en xAI's Grok voor 42 cent. De framing, schrijft Dudley, weerspiegelt nauw de taal die gebruikt werd toen de Obama-regering cloud computing als transformationele prioriteit verklaarde in het begin van de jaren 2010.
Les één: Er bestaat niet zoiets als een gratis lunch. ProPublica's onderzoek ontdekte dat Microsoft's belofte in 2021 om de federale overheid $150 miljoen aan beveiligingsdiensten te geven, in de praktijk een lock-in mechanisme was. Nadat instanties de gratis upgrades hadden overgenomen, zou overstappen naar een concurrent kostbaar en ontwrichtend zijn geweest. "Het was succesvoller dan iemand van ons zich had kunnen voorstellen," vertelde een voormalige Microsoft-verkoper aan ProPublica. Zoals crypto.news heeft gerapporteerd, zijn Microsoft en OpenAI sindsdien gebotst over de voorwaarden van hun eigen AI-partnerschap, een signaal van hoe problematisch big-tech AI-contracten kunnen zijn, zelfs tussen de betrokken partijen.
Les twee: Toezichtprogramma's vereisen daadwerkelijke middelen. Het Federal Risk and Authorization Management Program, bekend als FedRAMP, werd in 2011 opgericht om cloud computing-diensten te controleren voordat federale instanties ze mochten gebruiken. ProPublica ontdekte dat de instantie FedRAMP over vijf jaar heeft uitgeput om goedkeuring te krijgen voor een groot cloudproduct ondanks ernstige cybersecurity-bezwaren. Dat was vóór DOGE. FedRAMP zegt nu dat het opereert "met een absoluut minimum aan ondersteunend personeel" en "beperkte klantenservice." Een GSA-woordvoerder verdedigde het programma door te zeggen dat het "opereert met versterkte toezicht- en verantwoordingsmechanismen," maar voormalige medewerkers vertelden ProPublica dat het als een rubberstempel functioneert.
Les drie: Onafhankelijke beoordelingen zijn slechts zo onafhankelijk. Naarmate FedRAMP's interne capaciteit is gekrompen, hebben externe auditbedrijven meer van de controlefunctie overgenomen. Die bedrijven worden betaald door dezelfde cloudbedrijven die ze beoordelen. Instanties, vaak onderbemand, missen de capaciteit om hun eigen grondige beoordelingen uit te voeren en vertrouwen grotendeels op die beoordelingen. Zoals crypto.news opmerkte, is de bredere zorg onder waarnemers dat overheden consistent langzamer zijn in het reguleren van transformatieve technologie dan de bedrijven die het implementeren.
Een Patroon Dat Het Witte Huis Niet Heeft Aangepakt
De GSA heeft erkend dat AI "gebruikskosten snel kunnen groeien zonder juiste monitoring en beheercontroles" en heeft instanties geadviseerd om gebruikslimieten in te stellen en verbruiksrapporten te beoordelen. Maar de onderliggende structurele problemen blijven: ondergefinancierde toezichtorganen, leverancier-afhankelijke beoordelingen, en instanties met weinig invloed zodra adoptie verankerd raakt.
Dudley's conclusie is scherp: "De implicaties van deze verkleining voor federale cybersecurity zijn verreikend" terwijl instanties AI-tools overnemen die gevoelige overheidsgegevens verwerken onder hetzelfde verzwakte toezichtkader dat moeite had om de cloud te beheren.
Bron: https://crypto.news/three-times-the-us-government-already-failed-at-tech/








