Banimento de IA generativa por empresas evidencia debate sobre proteção de dados, segundo especialistas
Ferramenta de tecnologia artificial lida com informações sensíveis e há dúvidas sobre a segurança corporativa nas atividades.
Nesta semana, a Samsung afirmou à imprensa internacional que está restringindo temporariamente o uso de inteligência artificial (IA) generativa, como o ChatGPT, nos computadores usados na empresa. Houve relatos de que a ferramenta recebeu informações sensíveis, incluindo código confidencial, o que gerou preocupação quanto à proteção dos dados.
A cautela no uso das aplicações de IA generativa nas empresas é mais um capítulo na onda de manifestações que alertam para a imprevisibilidade das consequências. No último mês, carta pública inclui mais de mil especialistas em ciência, tecnologia e negócios – incluindo Yuval Noah Harari , Steve Wozniak e Elon Musk defenderam a pausa de pelo menos seis meses no desenvolvimento desse tipo de sistema.
Especialistas no tema entendem que a proibição é “compreensível”. Para Gustavo Artese, sócio fundador do Artese Advogados, que atua na área de proteção de dados e inteligência artificial generativa, no caso da Samsung, a empresa tomou a medida mais radical, mas necessária, “por ter sofrido consequências diretas da falta de prevenção” ao mesmo tempo, “não dá para dizer que a Samsung, como organização, foi inconsequente ou imprudente”, considerando que trata-se de uma ferramenta nova.
Artese pontua que apesar dos obstáculos, o uso de IA será um dos elementos indispensáveis para o sucesso das organizações, no entanto, necessita de políticas. “Essas políticas delimitarão com clareza as finalidades da utilização da ferramenta, os parâmetros de segurança para inputs (prompts) e para outputs (os resultados de um query), as exigências de treinamento usuários e as obrigações de revisão. Sem isso, as organizações estarão sujeitas”, conclui.
Proteção de dados
Saulo Stefanone Alle, especialista em Direito Público e Regulatório do Peixoto e Cury Advogados, destaca que as empresas querem proteger os dados.
“Falamos do know-how, de informações de estratégia comercial e financeira. Há, inclusive, em tese, o risco de cometimento de infrações à ordem econômica, pelo compartilhamento de determinados dados pela internet. Assim, considerando que as informações lançadas na ferramenta são absorvidas por ela, a medida restritiva é absolutamente coerente e saudável”, avalia Alle.
No mesmo sentido, Micaela Ribeiro, advogada da área de Direito Digital e Proteção de Dados do Medina Guimarães Advogados, entende que “a decisão parece acertada e cautelosa”. Ela lembra que o ChatGPT, por exemplo, foi banido recentemente na Itália por ordem da Agência de Proteção de Dados do país por possível recolhimento ilegal de informações pessoais.
“A agência já estava em alerta após o vazamento de dados de algumas informações dos usuários. Uma coisa é certa: a velocidade com a qual a tecnologia tem avançado, sobretudo a inteligência artificial, causará impactos positivos e negativos nos mais diversos setores e, dentre eles, o uso desregrado de dados e informações pessoais para alimentar a automatização”, disse Ribeiro.
LGPD
Mesmo que o debate sobre o Marco Legal da Inteligência Artificial no Brasil ainda esteja apenas começando, a legislação brasileira tem normas que se aplicam às ferramentas. Entre elas, a Lei Geral de Proteção de Dados (LGPD). A especialista Flávia Pietri, sócia sênior da área de Direito Consultivo Empresarial do Nascimento & Mourão Advogados, destaca que o código atual já prevê o correto tratamento de dados pelas companhias
“Se de um lado, temos motivos de insegurança que se relacionam aos mecanismos de tecnologia para a proteção e privacidade dos dados tratados, de outro lado, é importante mencionar a real finalidade dos projetos de adequação à LGPD feitos pelas empresas. Nesses processos, o tratamento de dados é estudado de forma minuciosa a fim de serem implementadas medidas que realmente protejam os dados dos titulares, sendo medida extrema a orientação de inutilização de um sistema, como temos visto nesses casos polêmicos”, opina Pietri.
Ainda segundo a advogada, “a revisão dos processos internos, aliada à conscientização e treinamento dos funcionários é uma das formas mais eficazes para garantir a segurança digital tão almejada e incentivada pelas autoridades brasileiras”.
A Momento Editorial nasceu em 2005. É fruto de mais de 20 anos de experiência jornalística nas áreas de Tecnologia da Informação e Comunicação (TIC) e telecomunicações. Foi criada com a missão de produzir e disseminar informação sobre o papel das TICs na sociedade.