(CBS NEWS) – A cantora Anitta publicou no início do mês uma série de vídeos interagindo com um aplicativo de IA (inteligência artificial) que imita sua voz e personalidade. O app, criado pela empresa Character.AI, simula conversas humanas a partir de personagens criados por usuários e está envolvido em polêmicas nos Estados Unidos.
Especialistas em direito digital ouvidos pela reportagem afirmam que o uso sem autorização de voz e imagem é considerado ilícito civil. Também pode configurar crime contra a honra se o conteúdo for ofensivo ou difamatório, levando a indenizações por danos morais e exploração comercial indevida.
Nos vídeos publicados nos stories do Instagram, Anitta chega a confrontar sua versão digital: “Esse aplicativo deveria ser processado porque deveria estar pagando para usar minha voz, imagem e personalidade.
A reportagem entrou em contato com a assessoria de Anitta para questionar se a cantora pretende tomar alguma atitude além de gravar os vídeos, mas não obteve resposta até a publicação deste texto.
Em nota, a Character.AI disse que remove personagens criados por usuários que violem direitos de propriedade intelectual, direitos autorais ou políticas dos termos de serviço, tanto de forma proativa quanto em resposta a denúncias de usuários.
O aplicativo afirmou ainda que conta com uma equipe de confiança e segurança para detectar e moderar violações, além de contar com listas de bloqueio personalizadas que são aumentadas regularmente.
No Brasil, a proteção da voz, imagem e dados pessoais são previstos pela Constituição Federal (artigo 5°), pelo Código Civil (artigo 20), pelo Estatuto da Criança e do Adolescente (artigo 17) e pela Lei Geral de Proteção de Dados (artigo 2°).
Embora a legislação atual já proteja esses direitos, o Projeto de Lei n° 2338, que tramita no Congresso, busca ampliar a regulamentação para lidar com os avanços da IA no país.
O uso legítimo da voz ou imagem de uma pessoa exige um consentimento explícito, que pode ser formalizado por meio de contrato escrito, áudio, e-mail ou até mesmo mensagens de WhatsApp, segundo especialistas.
Na plataforma Character.AI, os termos de uso estabelecem que é proibido o uso de gravações de terceiros sem consentimento, bem como a criação de deepfakes ou falsificação de identidade.
“Se eles proíbem nos termos, e houver denúncia de descumprimento, eles precisam remover do ar. Se não estão sujeitos a serem responsabilizados”, afirma Patrícia Peck, advogada especialista em direito digital.
Além disso, os termos não estão disponíveis em português, o que contraria a legislação brasileira, já que o serviço é ofertado para usuários no Brasil.
Criada em 2022 pelos ex-engenheiros do Google Noam Shazeer e o brasileiro Daniel de Freitas, a startup recebeu um investimento inicial de quase US$ 200 milhões. Em agosto do ano passado, o Google adquiriu a tecnologia da empresa por US$ 3 bilhões, mantendo os fundadores e parte da equipe na sua divisão de pesquisa de IA.
A legislação brasileira exige que tecnologias operando no país respeitem as leis locais, independentemente de serem de empresas estrangeiras”, diz Peck.
A advogada também destaca que a ressalva (disclaimer) informando que as interações são fictícIAs e geradas por IA logo abaixo do campo de envio de mensagens não é suficiente para afastar responsabilidades, especialmente ao lidar com públicos vulneráveis.
A comunicação deve ser mais didática e ostensiva, com mecanismos explícitos de aviso, canais de denúncia e sistemas para mitigar riscos à segurança dos usuários especialmente para crianças, adolescentes e idosos”, afirma Peck.
Rony Vainzof, sócio do VLK Advogados e especialista em direito digital, também entende que disclaimers não eximem as empresas de responsabilidade em casos de danos morais ou uso comercial indevido.
Se a IA gerar conteúdo difamatório ou prejudicar a imagem da pessoa, há direito à indenização não apenas pelo uso comercial, mas também por danos morais”, explica.
Exemplo disso é o caso do uso da voz para práticas de conotação sensual ou sua associação a comportamentos que comprometam a reputação do titular, como xingar, difamar, ridicularizar ou ofender o dono da voz original, podendo caracterizar crime contra a honra.
Para evitar problemas legais, Vainzof reforça a necessidade de uma governança ética na inteligência artificial, além de contratos claros de licenciamento, a exemplo do modelo adotado pelo Spotify, que trouxe regras para o licenciamento de músicas.
Assim como no caso da música, é preciso criar normas para a exploração ética de voz e imagem em deepfakes”, diz. A tecnologia pode ser uma ferramenta poderosa, mas precisa ser usada de forma ética e dentro dos limites legais. É possível explorar essas inovações comercialmente, desde que com autorização e respeito aos direitos de personalidade.
Com ele concorda Peck. Temos proteção suficiente hoje, mas precisamos de atualizações para acompanhar a revolução tecnológica”, afirma.
Apesar dos riscos, Vainzof não vê o uso de deepfake como sinônimo de crime.
Exemplos bem-sucedidos incluem a campanha de David Beckham, que usou deepfake para conscientizar sobre a malária em vários idiomas, e a propaganda da Elis Regina, autorizada por seus familiares, que emocionou o público ao trazer a cantora de volta às telas.
(CBS NEWS) – A cantora Anitta publicou no início do mês uma série de vídeos interagindo com um aplicativo de IA (inteligência artificial) que imita sua voz e personalidade. O app, criado pela empresa Character.AI, simula conversas humanas a partir de personagens criados por usuários e está envolvido em polêmicas nos Estados Unidos.
Especialistas em direito digital ouvidos pela reportagem afirmam que o uso sem autorização de voz e imagem é considerado ilícito civil. Também pode configurar crime contra a honra se o conteúdo for ofensivo ou difamatório, levando a indenizações por danos morais e exploração comercial indevida.
Nos vídeos publicados nos stories do Instagram, Anitta chega a confrontar sua versão digital: “Esse aplicativo deveria ser processado porque deveria estar pagando para usar minha voz, imagem e personalidade.
A reportagem entrou em contato com a assessoria de Anitta para questionar se a cantora pretende tomar alguma atitude além de gravar os vídeos, mas não obteve resposta até a publicação deste texto.
Em nota, a Character.AI disse que remove personagens criados por usuários que violem direitos de propriedade intelectual, direitos autorais ou políticas dos termos de serviço, tanto de forma proativa quanto em resposta a denúncias de usuários.
O aplicativo afirmou ainda que conta com uma equipe de confiança e segurança para detectar e moderar violações, além de contar com listas de bloqueio personalizadas que são aumentadas regularmente.
No Brasil, a proteção da voz, imagem e dados pessoais são previstos pela Constituição Federal (artigo 5°), pelo Código Civil (artigo 20), pelo Estatuto da Criança e do Adolescente (artigo 17) e pela Lei Geral de Proteção de Dados (artigo 2°).
Embora a legislação atual já proteja esses direitos, o Projeto de Lei n° 2338, que tramita no Congresso, busca ampliar a regulamentação para lidar com os avanços da IA no país.
O uso legítimo da voz ou imagem de uma pessoa exige um consentimento explícito, que pode ser formalizado por meio de contrato escrito, áudio, e-mail ou até mesmo mensagens de WhatsApp, segundo especialistas.
Na plataforma Character.AI, os termos de uso estabelecem que é proibido o uso de gravações de terceiros sem consentimento, bem como a criação de deepfakes ou falsificação de identidade.
“Se eles proíbem nos termos, e houver denúncia de descumprimento, eles precisam remover do ar. Se não estão sujeitos a serem responsabilizados”, afirma Patrícia Peck, advogada especialista em direito digital.
Além disso, os termos não estão disponíveis em português, o que contraria a legislação brasileira, já que o serviço é ofertado para usuários no Brasil.
Criada em 2022 pelos ex-engenheiros do Google Noam Shazeer e o brasileiro Daniel de Freitas, a startup recebeu um investimento inicial de quase US$ 200 milhões. Em agosto do ano passado, o Google adquiriu a tecnologia da empresa por US$ 3 bilhões, mantendo os fundadores e parte da equipe na sua divisão de pesquisa de IA.
A legislação brasileira exige que tecnologias operando no país respeitem as leis locais, independentemente de serem de empresas estrangeiras”, diz Peck.
A advogada também destaca que a ressalva (disclaimer) informando que as interações são fictícIAs e geradas por IA logo abaixo do campo de envio de mensagens não é suficiente para afastar responsabilidades, especialmente ao lidar com públicos vulneráveis.
A comunicação deve ser mais didática e ostensiva, com mecanismos explícitos de aviso, canais de denúncia e sistemas para mitigar riscos à segurança dos usuários especialmente para crianças, adolescentes e idosos”, afirma Peck.
Rony Vainzof, sócio do VLK Advogados e especialista em direito digital, também entende que disclaimers não eximem as empresas de responsabilidade em casos de danos morais ou uso comercial indevido.
Se a IA gerar conteúdo difamatório ou prejudicar a imagem da pessoa, há direito à indenização não apenas pelo uso comercial, mas também por danos morais”, explica.
Exemplo disso é o caso do uso da voz para práticas de conotação sensual ou sua associação a comportamentos que comprometam a reputação do titular, como xingar, difamar, ridicularizar ou ofender o dono da voz original, podendo caracterizar crime contra a honra.
Para evitar problemas legais, Vainzof reforça a necessidade de uma governança ética na inteligência artificial, além de contratos claros de licenciamento, a exemplo do modelo adotado pelo Spotify, que trouxe regras para o licenciamento de músicas.
Assim como no caso da música, é preciso criar normas para a exploração ética de voz e imagem em deepfakes”, diz. A tecnologia pode ser uma ferramenta poderosa, mas precisa ser usada de forma ética e dentro dos limites legais. É possível explorar essas inovações comercialmente, desde que com autorização e respeito aos direitos de personalidade.
Com ele concorda Peck. Temos proteção suficiente hoje, mas precisamos de atualizações para acompanhar a revolução tecnológica”, afirma.
Apesar dos riscos, Vainzof não vê o uso de deepfake como sinônimo de crime.
Exemplos bem-sucedidos incluem a campanha de David Beckham, que usou deepfake para conscientizar sobre a malária em vários idiomas, e a propaganda da Elis Regina, autorizada por seus familiares, que emocionou o público ao trazer a cantora de volta às telas.