As regulamentações de IA que não estão sendo comentadas
Os padrões nas políticas de inteligência artificial podem expor novas oportunidades para os governos orientarem o desenvolvimento da tecnologia.
Maio | 2024Imagine que alienígenas chegam à Terra com poderes incríveis que cativam alguns e aterrorizam outros. Os governos se reúnem rapidamente para tentar estabelecer regras sobre como esses seres enigmáticos viverão e trabalharão entre nós.
Lido na voz de Rod Serling, esse cenário daria um excelente episódio de “Além da Imaginação”, porém é a situação que muitos governos estão enfrentando com a inteligência artificial (IA). Embora essa tecnologia, incluindo a IA generativa, já exista há anos, o lançamento do ChatGPT em novembro de 2022 foi quase como uma aterrissagem alienígena. Em apenas algumas semanas, seus incríveis recursos ficaram subitamente disponíveis para mais de 100 milhões de pessoas[1]. O intenso otimismo e as preocupações inspiradas pelo surgimento repentino dessa poderosa tecnologia deram início a conversas não apenas sobre os usos da IA, mas também sobre como governá-la (infográfico 1).
No entanto, a reação intensa pode ter levado a uma discussão excessivamente focada na regulamentação da própria IA. A análise da Deloitte de mais de 1.600 iniciativas de políticas – incluindo regulamentação, como outras políticas destinadas a apoiar ou moldar a IA – de 69 países e da União Europeia (UE) sugere que muitos governos estão seguindo um caminho semelhante ao lidar com a IA[2]. Embora muitos estejam começando a questionar como moldar o desenvolvimento da tecnologia, existem ferramentas além da regulamentação direta da IA disponíveis para os governos para ajudar a garantir um futuro que seja inovador e proteja o público.
Duas estradas divergentes em um bosque digital
As manchetes de hoje estão aparentemente repletas de uma grande variedade de propostas sobre como os formuladores de políticas devem se preparar para o futuro da IA, mas essas propostas divergentes vêm de uma semelhança chocante. Contrariando as expectativas, até o momento, a maioria dos países abordou a IA como um conjunto muito semelhante de respostas políticas.
Muitas áreas de interesse em políticas públicas apresentam conjuntos distintos de políticas que são adotadas por diferentes conjuntos de países. Por exemplo, os pesquisadores da Universidade de Oxford descobriram que havia grupos distintos de políticas climáticas com base no fato de um país ter uma capacidade institucional “forte” ou “mais limitada”[3]. No caso da IA, como os países estão em diferentes pontos de seu desenvolvimento, com diferentes circunstâncias econômicas e sociais, seria de se esperar o surgimento de grupos semelhantes de políticas. Surpreendentemente, porém, até o momento, não observamos o surgimento de tais grupos.
A Deloitte analisou um banco de dados com mais de 1.600 políticas, desde regulamentações a bolsas de pesquisa e estratégias nacionais (para obter mais informações, consulte a seção de metodologia)[4]. Em seguida, mapeamos essas políticas para que as frequentemente adotadas em conjunto nos mesmos países apareçam mais próximas em nossa visualização. Entretanto, em vez de encontrar conjuntos claros de políticas relacionadas, descobrimos que a maioria estava agrupada (infográfico 2). Isso implica que a maioria dos países no estudo está usando um conjunto comum de políticas como ponto de partida.
Os padrões nos quais os instrumentos de política foram usados revelam que não são apenas as políticas centrais que são comuns entre os países, mas o mesmo caminho geral para a regulamentação. Quase todos os países parecem estar seguindo um processo semelhante de entender, depois crescer e depois moldar (infográfico 3).
- Entender. Quando confrontados com uma tecnologia desconhecida e em rápida evolução, os governos tentam primeiro entendê-la. Muitos usam mecanismos de colaboração, como órgãos de coordenação ou consultoria, para reunir um conjunto diversificado de conhecimentos especializados para ajudar a entender e prever os prováveis impactos da IA.
Exemplo do mundo real: Estabelecimento de comitês, órgãos de coordenação ou centros de compartilhamento de informações sobre IA. - Crescer. Com uma visão mais clara do que é a IA e seus prováveis impactos, a maioria dos países de nossa amostra cria estratégias nacionais que implementam financiamento, programas de educação e outras ferramentas projetadas para ajudar a estimular o crescimento do setor de IA.
Exemplo do mundo real: Fornecimento de subsídios para pesquisa, empréstimos, financiamento de capital ou outros mecanismos para financiar o crescimento do setor de IA. - Moldar. À medida que o setor de IA continua a crescer e se desenvolver, os governos procuram moldar o desenvolvimento e o uso da IA por meio de instrumentos como normas ou regulamentações voluntárias.
Exemplo do mundo real: Criação de órgãos de supervisão, sandboxes regulatórios ou padrões voluntários para governar o uso da IA.
Há uma sobreposição significativa entre as atividades de cada estágio. Os esforços para desenvolver o setor de IA podem continuar por décadas, por exemplo. No entanto, somente há relativamente pouco tempo os países de nossa amostra começaram a adotar políticas destinadas a moldar a IA. Isso parece ser uma indicação de que a maioria dos países, depois de passar pelo estágio de “entendimento”, está agora fazendo a transição da fase de “crescimento” para a fase de “modelagem”.
Essa transição se reflete no debate público sobre IA. Nos últimos anos, as manchetes podem ter se concentrado em estratégias nacionais, bolsas de pesquisa ou outros esforços para desenvolver a IA. No entanto, apenas recentemente, surgiu um debate repentino e intenso sobre se, quando e como regulamentar a IA[5].
É no estágio de “modelagem” que os países da amostra começam a divergir. Histórias e filosofias regulatórias diferentes podem levar os países a seguir caminhos distintos para regulamentar a IA. Comparar o projeto de Lei de IA da UE com a Estrutura de Gerenciamento de Risco de IA dos EUA é um bom exemplo. Ambas as políticas adotam uma abordagem ponderada pelo risco, mas diferem na forma de aplicá-la. A Estrutura de Gestão de Riscos dos EUA inclui ações recomendadas não vinculantes, enquanto o projeto de Lei de IA da UE é uma legislação vinculante que, se promulgada, regulamentaria diretamente os casos de uso ou aplicações de algoritmos de IA[6]. Ambas as abordagens refletem as diferentes histórias e filosofias regulatórias da UE e dos EUA.
Essas diferenças na filosofia regulatória significam que a ação governamental está em um ponto de inflexão. Os governos têm viajado com muitos companheiros por um caminho comum para lidar com a IA, mas quando os governos começam a lidar com a regulamentação da IA, o caminho parece se ramificar com muitas opções diferentes: quem deve ter jurisdição sobre o governo da IA? Como as sociedades devem equilibrar os imperativos concorrentes de inovação e segurança? Qual é o papel do governo na resposta aos desenvolvimentos da IA? E muito mais.
As respostas a essas perguntas podem ter impactos significativos no futuro da IA. E como as diferenças entre essas opções são filosóficas em algum nível, pode ser desafiador fazer previsões antecipadas sobre qual delas produzirá melhores resultados. Entretanto, o debate sobre políticas não é o único caminho que leva ao destino final. Nossa pesquisa sobre as políticas de IA existentes encontrou um conjunto de ferramentas subutilizadas que poderiam não apenas ajudar a moldar o desenvolvimento positivo da IA, mas também ajudar a resolver alguns dos debates políticos mais polarizados da atualidade.
Ferramentas regulatórias negligenciadas podem ser fundamentais
Talvez por causa das conversas em torno da IA generativa, ou talvez por causa do caminho que levou de “entender” a “crescer”, a discussão sobre como moldar o futuro da IA tem se concentrado em grande parte na IA diretamente. As propostas de políticas preliminares, por exemplo, frequentemente se concentram no controle do funcionamento ou das aplicações da própria IA, e não nos resultados que ela cria.
Contudo nossa pesquisa mostra que esse foco pode estar negligenciando algumas das ferramentas mais importantes já existentes. Das mais de 1.600 políticas que analisamos, apenas 11% estavam focadas na regulamentação de questões adjacentes à IA, como privacidade de dados, segurança cibernética, propriedade intelectual e assim por diante (infográfico 4). Mesmo quando limitamos a pesquisa apenas a regulamentações, 60% se concentraram diretamente na IA e apenas 40% em questões adjacentes à IA (infográfico 4). Por exemplo, vários países têm agências de proteção de dados com poderes regulatórios para ajudar a proteger a privacidade dos dados dos cidadãos. Mas, embora essas agências possam não ter a IA ou o machine learning mencionados especificamente em seus estatutos, a importância dos dados no treinamento e no uso de modelos de IA faz delas uma importante ferramenta adjacente à IA.
Isso pode ser problemático porque pode ser difícil regulamentar diretamente uma tecnologia de rápida evolução como a IA. Tomemos o exemplo hipotético de remover a parcialidade das decisões sobre empréstimos imobiliários. Os órgãos reguladores poderiam atingir esse objetivo determinando que a IA tenha certos tipos de dados de treinamento para garantir que os modelos sejam representativos e não produzam resultados tendenciosos, mas essa abordagem pode ficar desatualizada quando surgirem novos métodos de treinamento de modelos de IA. Dada a diversidade de diferentes tipos de IA em uso, desde redes neurais recorrentes até transformadores generativos pré-treinados, redes adversárias generativas e muito mais, encontrar um único conjunto de regras que possa oferecer o que o público deseja agora e no futuro pode ser um desafio.
Em vez de tentar encontrar um conjunto de regras que possa fazer com que os modelos de IA forneçam os resultados certos em todas as circunstâncias, nossos dados sugerem que os reguladores devem se concentrar em incentivar esses resultados desejados. Por exemplo, se for de interesse público limitar a parcialidade nas decisões viabilizadas por IA, exigir que os resultados de todas essas decisões, independentemente da tecnologia usada, atendam a determinados padrões – em vez de regulamentar o funcionamento da própria IA – ajudará a proteger os objetivos públicos, mesmo quando novas gerações de tecnologia estiverem disponíveis.
Nem todos os resultados são igualmente importantes para o público. Funções como assistência médica, educação e finanças podem ter impactos mais significativos na sociedade do que funções mais mundanas como manutenção de ruas, coleta de lixo ou agente de call center. Consequentemente, os resultados em funções de maior risco podem exigir um exame mais minucioso do que em outras.
As regulamentações baseadas em resultados e ponderadas pelo risco podem ser uma ferramenta poderosa para os órgãos reguladores, mas muitas vezes são ignoradas. Embora existam propostas de regulamentações baseadas em resultados e ponderadas pelo risco, muito poucas são ambas. Identificamos anteriormente cinco princípios para o futuro da regulamentação que os governos têm usado para ajudar a regulamentar as tecnologias de rápida evolução. Ao categorizar as mais de 1.600 políticas de IA de acordo com esses princípios, vemos que muitas estão bem representadas – especialmente as políticas colaborativas e adaptativas que desempenharam um papel tão importante nas fases de “entendimento” e “crescimento”. Entretanto, apesar de serem ferramentas poderosas, descobrimos que apenas cerca de 1% das regulamentações eram baseadas em resultados ou ponderadas pelo risco, e nenhuma no conjunto de dados era ambas (infográfico 5).
Isso não quer dizer que não existam regulamentações com base em resultados e ponderadas pelo risco. De fato, elas provavelmente fazem parte das estruturas regulatórias dos 69 países que estudamos. O que acontece é que essas regulamentações não são consideradas regulamentações de “IA”. E essa é exatamente a mentalidade que acreditamos que precisa mudar.
Em muitos países, o uso da IA não está isento das leis existentes de proteção ao consumidor, emprego, antidiscriminação ou concorrência. Nos Estados Unidos, a recém-lançada Ordem Executiva (EO) sobre o Desenvolvimento e Uso Seguro e Confiável da Inteligência Artificial reitera explicitamente que a IA e os produtos habilitados para IA devem seguir as proteções existentes para o consumidor em relação a preconceito, discriminação, privacidade e muito mais[7]. Em outros casos, pequenas modificações nessas partes da legislação relacionadas à IA podem ajudar muito a moldar o desenvolvimento responsável da IA sem restringir a inovação[8]. Por exemplo, pode ser necessário dar aos reguladores acesso a diferentes fontes de dados ou ferramentas para garantir que as novas ferramentas de IA estejam, de fato, alcançando os resultados estabelecidos pela regulamentação.
Os órgãos reguladores não estão sozinhos: outras funções do governo podem ajudar
A regulamentação pode alterar direta e imediatamente o curso de uma tecnologia, mas, ocasionalmente, confiar apenas na regulamentação pode atrasar o desenvolvimento de tecnologias em rápida evolução[9]. Os reguladores que não estão familiarizados com a tecnologia podem hesitar em emitir regras, enquanto os inovadores atrasam seu trabalho devido ao risco de acabar no lado errado de futuras regulamentações. Isso pode criar um ciclo vicioso que atrasa o progresso (infográfico 6)[10].
A IA generativa pode estar particularmente exposta a esse tipo de armadilha da incerteza. Embora o desenvolvimento da IA generativa continue rápido, há sinais iniciais de que os inovadores estão desacelerando o desenvolvimento em determinadas áreas devido a preocupações complexas de confiabilidade, ética e regulamentação[11]. Embora uma paralisação no desenvolvimento não seja necessariamente boa ou ruim, uma pausa sem nenhum progresso na resolução das preocupações subjacentes simplesmente deixa as questões éticas para depois. Resta saber se os modelos de linguagem de grande porte e outras formas de IA generativa podem retardar o desenvolvimento até que as preocupações convincentes nessas áreas sejam resolvidas.
Mas os reguladores não estão sozinhos. Atuar como regulador é uma das três funções que o governo pode desempenhar. Além da regulamentação, os governos também podem moldar o desenvolvimento de uma tecnologia fornecendo a infraestrutura necessária ou usando seu poder de compra como usuário de tecnologia. Essas funções podem ajudar a reduzir a incerteza em relação às ações públicas, quebrando um ciclo e acelerando a inovação. Por exemplo, os governos têm desempenhado um papel fundamental no fornecimento da infraestrutura necessária para o desenvolvimento tecnológico, seja infraestrutura física, como o sistema de rodovias interestaduais; infraestrutura técnica, como o acesso a equipamentos de teste para o desenvolvimento das primeiras máquinas de ressonância magnética; ou até mesmo infraestrutura de capital humano na forma de programas de educação e desenvolvimento da força de trabalho para habilidades de computação quântica[12]. Da mesma forma, o grande poder de compra dos governos geralmente significa que eles podem criar grandes incentivos de mercado puramente como usuários de tecnologia. Por exemplo, as compras garantidas do Departamento de Defesa ajudaram o primeiro setor de comunicações comerciais por satélite a superar a falta de clientes, desenvolver sua tecnologia e ganhar participação no mercado[13].
Essas alavancas podem parecer pequenas demais para movimentar um setor de US$ 400 bilhões que cresce a mais de 20% ao ano, mas o governo já demonstrou que pode fazer exatamente isso[14]. Tome como exemplo a criptografia e os padrões de segurança cibernética na computação em nuvem. Embora os gastos de aproximadamente US$ 8 bilhões do governo federal dos EUA com a nuvem sejam uma fração do mercado de nuvem de mais de US$ 400 bilhões, ele ainda representa um dos maiores compradores individuais[15]. Como resultado, até mesmo uma porcentagem relativamente pequena das vendas poderia fazer com que todo o setor adotasse os padrões exigidos para as vendas do governo, como os padrões FIPS (Federal Information Processing Standards) para criptografia[16].
O fornecimento de infraestrutura extremamente necessária também ajudou a moldar o desenvolvimento de setores inteiros, como agricultura de previsão e serviços baseados em localização. Por exemplo, a decisão de liberar o GPS para o público em 1983 tornou o posicionamento, a navegação e o tempo precisos e disponíveis para o público em qualquer lugar do mundo pela primeira vez. Isso teve um grande impacto em todos os setores: os provedores de telecomunicações puderam compactar as chamadas de celular com registros de data e hora mais precisos; os agricultores puderam direcionar com precisão a água e o fertilizante para suas plantações; e todos nós pudemos encontrar a rota mais rápida para o nosso destino. Embora o GPS continue sendo uma infraestrutura fornecida pelo governo, o benefício para a economia em geral tem sido imenso, gerando um valor econômico estimado em US$ 1,4 trilhão desde 1983[17].
Mas os governos já não estão fornecendo infraestrutura essencial para o setor de IA? Com certeza. De fato, nossos dados mostram que o fornecimento de infraestrutura essencial é a categoria mais comum de política de IA, pois os governos procuram ajudar a expandir o setor. No entanto, nossos dados também mostram uma lacuna significativa. A maior parte da infraestrutura fornecida até o momento é uma infraestrutura social – órgãos de compartilhamento de informações, programas educacionais, iniciativas de desenvolvimento da força de trabalho e similares – com infraestrutura de financiamento, como programas de concessão de Pesquisa & Desenvolvimento, em uma fração muito menor. Pouquíssimos governos investiram no fornecimento de infraestrutura técnica, como plataformas de compartilhamento de computadores ou conjuntos de dados de treinamento representativos. Essas ferramentas podem tanto acelerar o desenvolvimento da IA, removendo os principais obstáculos para os desenvolvedores, quanto moldar esse desenvolvimento em direção aos resultados desejados pelos formuladores de políticas (infográfico 7).
Alguns países estão dando os primeiros passos com essas ferramentas. Por exemplo, a Ordem Executiva (EO) sobre o Desenvolvimento e Uso Seguro e Confiável da Inteligência Artificial orienta o Escritório de Gerenciamento e Orçamento a desenvolver um meio de garantir que todas as aquisições federais de IA sigam as práticas de gerenciamento de riscos[18]. No entanto, ainda há oportunidades significativas para os líderes usarem o poder de compra e a infraestrutura dos governos para orientar a IA em direção aos resultados desejados sem impedir seu desenvolvimento.
Primeiros passos
Embora este estudo tenha sido uma análise puramente descritiva do cenário atual da regulamentação da IA, ele revelou novas oportunidades para reguladores e formuladores de políticas moldarem o desenvolvimento da IA. Independentemente da direção específica que os diferentes países tomem com essa modelagem, algumas etapas podem ajudá-los a se prepararem melhor para um futuro habilitado para IA.
Para os órgãos reguladores, o poder das regulamentações baseadas em resultados e ponderadas pelo risco, muitas vezes negligenciadas, significa que os órgãos reguladores devem considerar algumas etapas:
- Realizar um inventário de todas as regulamentações baseadas em resultados existentes dentro de sua autoridade. Isso pode dar aos reguladores uma visão clara dos resultados pelos quais eles são responsáveis e dos processos que a IA pode estar alterando e que exigem atenção.
- Depois de examinar as regulamentações existentes, os reguladores podem verificar se o uso da IA exigiria a realização de alguma alteração.
- Por fim, embora as regulamentações baseadas em resultados e ponderadas pelo risco possam ser adequadas a determinados setores, sistemas poderosos, como modelos de linguagem de grande porte, podem exigir considerações exclusivas.
Para os formuladores de políticas, o poder de compra e a infraestrutura do governo para moldar a IA não podem ser ignorados. Os formuladores de políticas devem considerar:
- Aproveitar as políticas existentes que exigem inventários dos usos da IA pelo governo, para incluir inventários de como é feita a compra da tecnologia. Isso pode ajudar a simplificar o processo de aquisição. Assim como o FedRamp ajudou a comunicar e promover as práticas de segurança na nuvem, definindo padrões de desempenho para compras governamentais, a criação de um processo simplificado com padrões de desempenho comuns para IA pode comunicar rapidamente ações importantes para o setor[19].
- Estabelecer procedimentos de governança em todo o ciclo de vida do modelo para ajudar a garantir que não apenas o uso da IA pelo governo seja seguro, mas também que seu poder de compra leve todo o setor a práticas e resultados desejáveis[20].
- Por fim, os formuladores de políticas devem se esforçar para entender os riscos e incentivos no desenvolvimento de modelos de IA. Um estudo detalhado dos participantes e das interações no setor de IA pode ajudar a descobrir as barreiras à inovação[21]. Com esse conhecimento, os líderes governamentais podem implantar melhor a infraestrutura e o financiamento do governo de modo a não apenas remover as barreiras ao desenvolvimento da IA, mas também promover o interesse público.
O curso de um futuro habilitado para inteligência artificial está longe de ser definido. Com as ferramentas certas, os líderes governamentais podem criar políticas que ajudem a atingir seus objetivos, minimizar consequências não intencionais e orientar um futuro habilitado para IA que funcione para todos.
Metodologia
Nossa análise começou com o banco de dados de instrumentos de política mantido pelo OECD.AI Policy Observatory. Esse banco de dados contém mais de 1.600 instrumentos de política relacionados à IA de 69 países e da União Europeia[22]. Mais do que apenas regulamentações, esses instrumentos de política incluem uma série de ferramentas destinadas a influenciar a IA, desde estratégias nacionais até programas de subsídios e normas.
Em seguida, categorizamos esses instrumentos de política com base em uma série de fatores, incluindo:
- Se a política lidava principalmente com IA
- A função do governo (regulador, usuário de tecnologia ou provedor de infraestrutura)
- Tipo de governo (federal, unitário ou multinacional)
- Princípio do futuro da regulamentação incorporado na política
Essa categorização nos permitiu analisar mais detalhadamente o conjunto de instrumentos de política usando métodos como análise de rede, séries temporais, entre outros. Essas ferramentas nos ajudaram a descobrir os padrões de adoção de políticas relatados neste documento.
Agradecimentos
Os autores gostariam de agradecer a Bennett Stillerman, Thirumalai Kannan D e Nicole Savia Luis por sua contribuição para a análise de dados do relatório. Eles também agradecem a Kyra Kaczynski, Kelsey Lilley, Anita Soucy, Kristin Loughran e Kimmerly Cordes por seus comentários atenciosos sobre a versão preliminar, e a Rupesh Bhat e Shambhavi Shah, da Deloitte Insights, por seu apoio editorial.
Imagem da capa por: Jaime Austin
[1] Krystal Hu, “ChatGPT sets record for fastest-growing user base – analyst note,” Reuters, February 2, 2023. View in Article
[2] Data was drawn from OECD AI Policy Observatory database and then analyzed using a number of frameworks to find patterns in global AI regulation. View in Article
[3] Santa Fe Institute, “Action briefing: How can complexity economics give more insight into political economy,” September 22, 2022. View in Article
[4] OECD.AI Policy Observatory, “Country dashboards and data,” accessed October 31, 2023. View in Article
[5] Examining web search trends or the number of Congressional hearings on AI per year shows a sudden increase after November 2022. View in Article
[6] Gina M. Raimondo, Artificial intelligence risk management framework (AI RMF 1.0), National Institute of Standards and Technology, January 2023; European Parliament, “EU AI Act: First regulation on artificial intelligence,” June 8, 2023. View in Article
[7] The White House, “Executive order on the safe, secure, and trustworthy development and use of artificial intelligence,“ October 30, 2023. View in Article
[8] Nicol Turner Lee, Niam Yaraghi, Mark MacCarthy, and Tom Wheeler, “Around the halls: What should the regulation of generative AI look like?,” Brookings, June 2, 2023. View in Article
[9] Uncertainties around future regulation is just one category of uncertainty risk, but it can be a significant barrier to technological progress. To see how all forms of uncertainty risk are impacting the quantum information technology industry, read: Scott Buchholz, Kate Abrey, and Joe Mariani, Sensing the future of quantum, Deloitte Insights, February 22, 2023. View in Article
[10] We have previously examined this phenomenon in regulation of the Internet of Things: Joe Mariani, Guiding the IoT to safety, Deloitte University Press, 2017. View in Article
[11] For example, there have been several instances of technology companies developing, but not releasing technologies such as web-scraping facial recognition or voice-mimicking generative AI. See: Cyberscoop, “Journalist Kashmir Hill on facial recognition and the underage hackers hitting Vegas,” September 28, 2023; Dan Bova, “Meta decides not to release AI that can mimic the voices of everyone you know,” Entrepreneur, June 20, 2023. View in Article
[12] For MRI test infrastructure, see: National Science Foundation, “MRI: Magnetic resonance imaging—Nifty 50,” accessed October 31, 2023. For workforce development efforts in quantum see: National Science and Technology Council and NSTC Subcommittee on Quantum Information Science, Quantum information science and technology workforce development national strategic plan, February 2022. View in Article
[13] Ocean Navigator, “Iridium reborn. Globalstar expands,” January 1, 2003. View in Article
[14] Fortune Business Insights, Artificial Intelligence market size share & COVID-19 impact analysis, April 2023. View in Article
[15] For estimates on Federal cloud spending see our research in: Meghan Sullivan, Malcolm Jackson, Joe Mariani, and Pankaj Kamleshkumar Kishnani, Don’t just adopt cloud computing, adapt to it, Deloitte Insights, January 21, 2022; and for estimates of global public cloud market size, see: Statista, “Public could services end-user spending worldwide from 2017 to 2023,” October 2022. View in Article
[16] National Institute of Standards and Technology, “Security requirements for cryptographic module,” NIST, May 25, 2001. View in Article
[17] Alan C. O’Connor, Michael P. Gallaher, Kyle Clark-Sutton, Daniel Lapidus, Zack T. Oliver, Troy J. Scott, Dallas W. Wood, Manuel A. Gonzalez, Elizabeth G. Brown, and Joshua Fletcher, Economic benefits of the global positioning system (GPS), National Institute of Standards and Technology, June 2019. View in Article
[18] The White House, “Executive order on the safe, secure, and trustworthy development and use of artificial intelligence,“ October 30, 2023. View in Article
[19] According to the annual FedRamp survey of government and industry professionals, 85% agreed that FedRAMP promotes the adoption of secure cloud services across the US Government. FedRAMP, “FedRAMP FY22 annual survey recap,” January 17, 2023. View in Article
[20] One example is how the DoD’s Chief Digital and AI Office is building down from its top-level responsible AI principles to detailed governance actions across model design, development, and deployment: US Department of Defense, U.S. Department of Defense responsible artificial intelligence strategy and implementation pathway, June 2022. View in Article
[21] CHIPS Research and Development Office, A vision and strategy for the national semiconductor technology center, National Institute of Standards and Technology, April 25, 2023. View in Article
[22] Data was retrieved on June 20, 2023. View in Article