Selecionar Idioma

ByteDance suspende a feature Seedance 2.0: transformando fotos faciais em vozes pessoais com riscos éticos

Anuncio

Em 10 de fevereiro de 2026, a ByteDance anunciou a suspensão imediata da característica Seedance 2.0, um modelo de geração de vídeo inteligente que permitia criar vozes pessoais a partir de fotos faciais, sem autorização explícita do usuário. O modelo, desenvolvido por uma equipe especializada em IA, foi um sucesso em testes internos e alcançou milhões de usuários na China, mas rapidamente gerou preocupações sobre segurança e privacidade.

Segundo informações da TechNode, Seedance 2.0 utiliza uma arquitetura híbrida de transformador difuso dual-branch para gerar vídeos e áudio nativo simultaneamente. O processo envolve uma fase de treinamento que permite ao modelo extrair características vocais precisas apenas com imagens faciais, mesmo sem acesso a dados de voz pré-existentes. Essa capacidade, embora técnica, levou a críticas sobre violação de privacidade, já que os usuários não eram informados sobre a coleta de dados para treinamento do modelo.

Apesar da eficiência técnica, a característica gerou discussões sobre ética e conformidade legal. Analistas de segurança destacaram que a falta de consentimento explícito para uso de dados pessoais pode resultar em problemas legais, especialmente em países que exigem autorização para tratamento de dados biométricos. Além disso, a capacidade de criar vozes pessoais a partir de apenas uma foto facial representa um risco significativo para a privacidade individual, já que a identidade facial pode ser usada para gerar cópias de vozes sem a necessidade de voz real.

Os desenvolvedores da ByteDance já começaram a trabalhar em alternativas, como a Seedance 3.0, que incluirá uma camada de verificação de privacidade antes de qualquer uso de dados biométricos. Por outro lado, os usuários que já utilizaram a característica Seedance 2.0 estão preocupados com a possibilidade de suas fotos serem usadas para gerar vozes sem autorização. A falta de transparência sobre como os dados são coletados e utilizados é um problema crítico, já que muitos usuários não sabem que suas fotos podem ser usadas para treinar modelos de IA.

Esse incidente reflete um desafio maior para a indústria de IA: equilibrar a inovação tecnológica com a proteção de dados pessoais. Muitos especialistas alertam que a falta de regulamentação adequada pode levar a vazamentos de dados e a violações de privacidade em larga escala.

Na prática, a suspensão de Seedance 2.0 já demonstrou que empresas de IA precisam adotar melhores práticas de privacidade, como consentimento explícito e transparência sobre como os dados são utilizados. Além disso, a necessidade de revisão regulatória em países onde a legislação ainda não é clara sobre uso de dados biométricos é crítica para evitar problemas futuros.

Para os usuários, a mensagem é clara: se você não quer que suas fotos sejam usadas para criar vozes, não use a característica Seedance 2.0.

Anuncio

Compartilhar artigo