Bloqueio do ChatGPT na Itália levanta discussão sobre tratamento de dados no Brasil.
Inspiração de dados pessoais europeia sobre a LGPD traz o debate sobre limites do ChatGPT ao Brasil, bem como questões de direitos autorais.
As autoridades italianas anunciaram na sexta-feira, 31, a decisão de bloquear o ChatGPT, acusado de não respeitar a legislação relativa aos dados pessoais e de não dispor de um sistema de verificação de idade para usuários adolescentes. A plataforma foi criada pela startup americana OpenAI no ano passado.
Na Europa, o tema é regulamentado pela GDPR, o equivalente à Lei Geral de Proteção de Dados (LGPD). Para especialistas na área, o caso pode servir de alerta para o Brasil.
Daniel Becker, sócio das áreas de Contencioso e Arbitragem, Proteção de Dados e Regulatório de Novas Tecnologias do BBL Advogados, destaca que a decisão é temporária e tem a força de uma obrigação de fazer relacionada às ilicitudes apontadas pela autoridade italiana.
Em resumo, os argumentos dos italianos são: (i) a ausência de filtros etários para acesso e uso da plataforma – que deveria ser limitada a usuários com 13 anos ou mais –, (ii) a inexistência de bases legais que justifiquem a coleta e o processamento massivo de dados para composição do bigdata de treinamento do chatbot e, ainda, (iii) a falta de transparência da OpenAI quanto aos moldes do processamento dos dados coletados. Em relação ao primeiro ponto, não há algo semelhante na LGPD ou em outra legislação que exija a criação de um filtro para menores em conteúdos como o ChatGPT.
“Sobre o segundo e terceiro pontos, o ChatGPT tem a possibilidade de responder à autoridade, apresentando seus documentos regulatórios, tais como o registro das operações de tratamento de dados (ROPA) e o relatório de impacto na proteção de dados (DPIA)”, explica Becker.
No Brasil, Flávia Pietri, sócia do Nascimento e Mourão Advogados, especialista em privacidade e proteção de dados, comenta que o 5° do artigo 14 da LGPD traz regramento específico para o tratamento de informações de crianças e adolescentes.
“O controlador de dados deve buscar os meios possíveis para que seja verificado se o consentimento para referido tratamento foi mesmo concedido pelos pais ou responsáveis da criança ou adolescente. Nesse sentido, o regramento americano pode ser utilizado como inspiração, vez que indica caminhos para essa verificação, a partir das tecnologias disponíveis, tais como: assinatura de formulário com o envio do consentimento e/ou ligação para número de telefone gratuito, que possuam central de pessoas treinadas para avaliar se o contato está mesmo sendo feito pelos pais ou responsáveis; o preenchimento de formulários com questões que apenas pais ou responsáveis seriam capazes de responder, revelando-se essa terceira opção como uma das mais baratas e eficaz dentre tais possibilidades”, sugere.
Pietri lembra que o §6 do artigo 14 da LGPD impõe que as informações sobre o tratamento sejam expostas de maneira clara, respeitando o entendimento e compreensão das crianças e adolescentes. “Assim, é preciso que as Políticas de Privacidade e Proteção de Dados adotadas por essas ferramentas tecnológicas sejam norteadas por essas premissas”, complementa.
Já Raphael De Matos Cardoso, especialista em proteção de dados e sócio do Marzagão Balaró Advogados, avalia que a Inteligência Artificial (IA) está caminhando mais rápido do que as reações do Direito. “A ciência jurídica sempre se manifestou diante dos fatos sociais depois que eles já estão em certa medida consolidados, para aguardar a decantação dos movimentos da sociedade, de modo que o Direito se pronuncie somente no que for essencial e no que for fundamental a sua intervenção. Essa sempre foi a dinâmica da operação do Direito. Todavia, alguns fatos da vida exigem outra medida e um deles é a IA”, observa.
Lacunas
Cardoso adverte que o projeto de lei em tramitação no Congresso Nacional e a proposta da Comissão de Juristas designada para subsidiar a elaboração de projeto substitutivo sobre a regulação da IA no país caminham a passos lentos e não detalham como será o controle dessa atividade.
“A proposta não define, por exemplo, qual será a autoridade regulatória responsável pelo controle e fiscalização das atividades de IA, ou quais serão as autoridades que conciliarão essa tarefa, já que a atividade tem interfaces com diversos segmentos, como, por exemplo, aspectos da concorrência e de proteção de dados”, comenta.
O advogado ressalta ainda que o projeto deixa a tarefa de designar a autoridade reguladora para o Poder Executivo e não disciplina como deverá ocorrer a atuação e a colaboração “que provavelmente se dividirá em mais de uma agência reguladora, ainda que criada uma especificamente para a regulação da IA”. “Quanto às sanções administrativas, deixa de tipificar as infrações, não se dedica à dosimetria e não trata sobre o esperado conteúdo mínimo do processo administrativo sancionador”, acrescenta.
Lívia Barboza Maia, sócia do DBBA, especialista em propriedade intelectual e professora da Faculdade Presbiteriana Mackenzie Rio, levanta outra questão. “A produção de textos pelo ChatGPT não tem proteção pela Lei de Direitos Autorais (Lei 9.610/1998), pois o artigo 7º informa que as obras intelectuais protegidas são criações do espírito e no artigo 11 há determinação que autor é pessoa física”, observa.
Segundo ela, a Inteligência Artificial tem autonomia e, portanto, o “criador” da tecnologia não tem o controle/ingerência do que a IA criou. “O ChatGPT pode colidir com o artigo 6º, I da LGPD e violar o princípio da finalidade no tratamento de dados. Isso porque, ao realizar a atividade de tratamento de dados, é necessário informar ao titular o objetivo, bem como não é possível tratamento posterior que não seja compatível com a finalidade para a qual se obteve o consentimento”, conclui. (Com assessoria de imprensa)