Uso de termos de uso da nova plataforma chinesa divide opiniões.
Impactando o mercado de tecnologia do Vale do Silício nas últimas semanas, a DeepSeek, startup chinesa que concorre com ChatGPT, OpenAI, entre outros chatbots, tem sido alvo de polêmicas quanto à privacidade e armazenamento de dados. Levando em consideração as legislações mundiais no âmbito do Direito Digital e a brasileira, a pergunta que é fica é: a plataforma realmente segue as exigências da Lei Geral de Proteção de Dados (LGPD)?
De acordo com Alexander Coelho, sócio do Godke Advogados e especialista em Direito Digital e Proteção de Dados, ainda é cedo para afirmar com precisão se os termos de uso da DeepSeek estão em total conformidade com a LGPD e demais normas internacionais de privacidade, como o GDPR europeu. “No entanto, considerando o histórico de transparência limitado de empresas chinesas no que diz respeito à coleta e processamento de dados, há razões para preocupação”, alerta o advogado.
Na visão de Luiz Fernando Plastino, advogado do Barcellos Tucunduva Advogados (BTLAW) e especialista em Direito de Informática, os termos de uso são muito parecidos com os existentes em outras plataformas, tais como o ChatGPT. “É necessário o envio dos dados para que sejam feitas as perguntas para máquina, de forma que ela possa computar o que vai ler para responder”, explica.
Uma diferença que foi apontada é que não existe uma possibilidade, em princípio, do usuário escolher não enviar tais dados para treinamento da máquina. “Por outro lado, o modelo é em código aberto e você pode rodar sua própria instância separada no seu computador ou no seu servidor. Nesse caso, se você roda sua instância separada, ele é ainda mais seguro do que um ChatGPT, porque ele não vai enviar dados para fora”, diz Plastino, reforçando que, no caso da DeepSeek, é possível rodar numa instância local, o que fica mais seguro para as empresas.
Mas assim como aconteceu no TikTok, que foi alvo de investigações e proibições em diversos países, incluindo os Estados Unidos, por suspeitas de que seus dados pudessem ser acessados pelo governo chinês, o aviso para a DeepSeek é semelhante, na visão de Coelho.
“A China possui leis que obrigam empresas locais a fornecer dados ao governo, caso solicitado. Se a DeepSeek segue o mesmo modelo de coleta massiva de dados, sua popularidade pode se tornar uma ferramenta estratégica para Pequim, especialmente no treinamento de IA baseado em interações humanas globais”, alerta o especialista.
Por fim, os especialistas analisam se a ANPD (Autoridade Nacional de Proteção de Dados) terá de ter um posicionamento mais rígido quanto à essa e demais plataformas de IA. “O Brasil vai precisar ser mais proativo na regulamentação e fiscalização de novas tecnologias, especialmente quando envolvem inteligência artificial e o processamento de grandes volumes de dados pessoais. A ANPD deve monitorar a DeepSeek para avaliar se a plataforma segue os princípios da LGPD, especialmente no que diz respeito ao consentimento dos usuários, minimização da coleta de dados e restrições de compartilhamento internacional”, defende Coelho.
Já Plastino acredita que existam diversos tipos de IA generativa que rodam, basicamente, sob as mesmas premissas com relação a privacidade e todos eles apresentam pontos de ressalva.
“Não me parece que seja uma preocupação adicional simplesmente por vir do governo da China, país que o Brasil sempre manteve relações amigáveis, tanto quanto com outros países produtores de inteligência artificial. Talvez seja uma ideia interessante, na verdade, a própria ANPD avaliar esse modelo de forma mais próxima, justamente porque o código é aberto e, com isso, é possível aprender e ter alguns insights para ser aplicáveis para outros códigos”, conclui.