O Governo dos EUA Quer Você – Sim, Você – para Caçar Falhas em Inteligência Artificial Generativa
Não é todo dia que temos a oportunidade de participar de uma caçada a erros em sistemas de IA generativa, não é mesmo? Mas é exatamente isso que o governo dos EUA está propondo, em uma iniciativa inovadora e empolgante que visa tornar esses sistemas cada vez mais seguros e confiáveis.
Tudo começou na Defcon, a famosa conferência de hackers em Las Vegas. Lá, empresas de tecnologia de IA se uniram a grupos de integridade e transparência algorítmica para desafiar os participantes a encontrar fragilidades em plataformas de IA generativa. Essa “red-teaming” contou com o apoio do governo americano e foi um passo importante para abrir esses sistemas, cada vez mais influentes e opacos, à escrutínio público.
Agora, a Humane Intelligence, uma organização sem fins lucrativos focada em IA ética e avaliação algorítmica, está dando um passo a mais. Em parceria com o Instituto Nacional de Padrões e Tecnologia (NIST) dos EUA, eles estão convidando qualquer residente americano a participar de uma rodada de qualificação para uma iniciativa nacional de “red-teaming” para avaliar software de produtividade de escritório baseado em IA.
Uma Oportunidade Única
A fase de qualificação acontecerá online e estará aberta tanto para desenvolvedores quanto para o público em geral, como parte dos desafios de IA do NIST, conhecidos como Avaliando Riscos e Impactos da IA, ou ARIA.
Os participantes que passarem pela rodada de qualificação poderão participar de um evento presencial de “red-teaming” no final de outubro, na Conferência sobre Aprendizado de Máquina Aplicado à Segurança da Informação (CAMLIS), na Virgínia. O objetivo é expandir as capacidades de realizar testes rigorosos de segurança, resiliência e ética das tecnologias de IA generativa.
“A pessoa média que usa um desses modelos realmente não tem a capacidade de determinar se o modelo é adequado para o propósito”, diz Theo Skeadas, chefe de gabinete da Humane Intelligence. “Então queremos democratizar a capacidade de realizar avaliações e garantir que todos os usuários desses modelos possam avaliar por si mesmos se o modelo atende às suas necessidades.”
Uma Abordagem Inclusiva e Científica
No evento final da CAMLIS, os participantes serão divididos em uma equipe vermelha, tentando atacar os sistemas de IA, e uma equipe azul, trabalhando na defesa. Eles usarão o perfil AI 600-1 do NIST, parte da estrutura de gerenciamento de riscos de IA da agência, como um guia para medir se a equipe vermelha consegue produzir resultados que violem o comportamento esperado dos sistemas.
Essa iniciativa faz parte de uma série de colaborações de “red-teaming” de IA que a Humane Intelligence anunciará nas próximas semanas, com agências governamentais dos EUA, governos internacionais e ONGs. O objetivo é tornar muito mais comum que as empresas e organizações que desenvolvem esses algoritmos agora considerados “caixas-pretas” ofereçam transparência e responsabilidade através de mecanismos como “desafios de recompensa por vieses”, onde indivíduos podem ser recompensados por encontrar problemas e desigualdades em modelos de IA.
Conclusão
Essa iniciativa do governo americano, em parceria com a Humane Intelligence, representa um passo importante na direção de uma maior transparência e responsabilidade no desenvolvimento de sistemas de IA generativa. Ao abrir esses sistemas à avaliação e teste por parte do público, podemos garantir que eles sejam cada vez mais seguros, confiáveis e adequados para os propósitos a que se destinam. É uma oportunidade única de participar ativamente na evolução dessa tecnologia tão crítica para o futuro.
Key Takeaways:
1. O governo dos EUA, em parceria com a Humane Intelligence, está lançando uma iniciativa para envolver o público na avaliação de sistemas de IA generativa, convidando qualquer residente americano a participar de uma rodada de “red-teaming”.
2. O objetivo é expandir as capacidades de teste rigoroso de segurança, resiliência e ética dessas tecnologias, tornando-as mais transparentes e responsáveis.
3. Esta é a primeira de uma série de colaborações de “red-teaming” de IA que a Humane Intelligence planeja anunciar, visando democratizar a avaliação desses sistemas e garantir que eles atendam às necessidades reais dos usuários.