Um consultor político enfrenta acusações e pesadas multas da FCC por fazer uma ligação automática usando uma voz sintética do presidente Biden em uma tentativa de suprimir votos.
Resumo
- Steve Kramer, um consultor político, usou uma voz deepfake do presidente Joe Biden em uma ligação automática para desencorajar o voto nas primárias de New Hampshire.
- Kramer foi acusado de 13 acusações de supressão de voto e 13 acusações de personificação de um candidato.
- A FCC propôs uma multa de $ 6 milhões contra Kramer e $ 2 milhões contra a operadora de telecomunicações por violações relacionadas à identificação de chamadas.
O consultor político por trás do deepfake de Biden
Steve Kramer, um consultor político de Nova Hampshire, admitiu usar uma voz deepfake do presidente Joe Biden em um esquema de ligações automáticas durante as primárias presidenciais deste ano. Seu objetivo declarado era alertar as pessoas sobre os perigos da inteligência artificial, embora suas ações tenham sido interpretadas como uma tentativa de supressão de eleitores.
Acusações criminais e multas propostas
As autoridades não viram com bons olhos a tática de Kramer. Ele agora enfrenta 13 acusações de supressão de voto e 13 acusações de personificação de um candidato. O procurador-geral de Nova Hampshire, John Formella, disse que a ligação automática atingiu até 25.000 eleitores.
Além disso, a Comissão Federal de Comunicações (FCC) propôs uma multa de US$ 6 milhões contra Kramer por supostamente violar a Lei da Verdade na Identificação de Chamadas. A FCC alega que a ligação automática suplantou o número de telefone de um consultor político local.
Proibição de vozes sintéticas em ligações automáticas
Após o incidente com Kramer, a FCC proibiu o uso de vozes geradas por IA em ligações automáticas. A agência também propôs uma multa de US$ 2 milhões contra a Lingo Telecom, a operadora de telecomunicações que operava as linhas telefônicas usadas na ligação automática, por supostamente violar as regras de autenticação de identificação de chamadas.
Regulamentação de anúncios políticos com IA
Divulgação obrigatória do uso de IA
Enquanto lida com o caso de Kramer, a FCC também está considerando exigir que anunciantes políticos divulguem o uso de qualquer inteligência artificial em anúncios de TV e rádio. No entanto, a presidente Jessica Rosenworcel não está buscando proibir o uso de conteúdo gerado por IA em anúncios políticos.
“À medida que as ferramentas de inteligência artificial se tornam mais acessíveis, a comissão quer garantir que os consumidores sejam totalmente informados quando a tecnologia for usada”, disse Rosenworcel em um comunicado na quarta-feira.
Equilibrando inovação e transparência
A FCC parece estar caminhando em uma linha tênue, procurando equilibrar a inovação com a transparência quando se trata do uso de IA em comunicações políticas. Enquanto reconhece os benefícios potenciais da tecnologia, a agência também quer garantir que os eleitores não sejam enganados ou influenciados indevidamente por conteúdo sintético.
Conclusão
O caso de Steve Kramer destacou os riscos e desafios associados ao uso de tecnologia deepfake e inteligência artificial em comunicações políticas. Embora a intenção de Kramer tenha sido alertar sobre os perigos da IA, suas ações foram interpretadas como uma tentativa de supressão de eleitores e resultaram em acusações criminais e multas substanciais.
A medida da FCC de proibir vozes sintéticas em ligações automáticas e exigir a divulgação do uso de IA em anúncios políticos é um passo na direção certa para promover a transparência e proteger os eleitores de influências indevidas. No entanto, encontrar o equilíbrio certo entre inovação e regulamentação continuará sendo um desafio à medida que a tecnologia de IA avança.