Não é apenas sobre Inteligência Artificial. É sobre concentração de poder

De acordo com o advogado e administrador de empresas Renato Francischelli, criar uma máquina que se comporte como um ser humano é uma ambição antiga na área de tecnologia

A IA (Inteligência Artificial) é uma tecnologia que tem o potencial de transformar muitos aspectos da sociedade. Para o advogado e administrador de empresas Renato Francischelli, a concentração de poder é um tema importante quando se fala sobre IA, porque muitas companhias estão investindo nessas tecnologias para melhorar seus serviços. “São produtos desenvolvidos por grandes empresas de tecnologia, com vultuosos aportes de capital, e natural conhecimento para este tipo de empreitada”, disse.

Francischelli fala sobre diversos elementos, implicações e expectativas do desenvolvimento do ChatGPT e da preservação dos interesses do autor, de questões éticas, da diferenciação entre informação e propaganda e de muitos outros aspectos, dando pistas sobre os próximos desdobramentos no uso deste recurso.

Qual é o real avanço que o ChatGPT traz para as discussões sobre Inteligência Artificial e quais problemas a Inteligência Artificial traz para o Direito do Autor?

O avanço do ChatGPT para a inteligência artificial é trazer a linguagem natural para a conversa com o usuário, e responder de forma certa e no contexto correto, minimizando respostas erradas. Criar uma máquina que se comporte como um ser humano é uma ambição antiga na área de tecnologia.

Pense no ChatGPT como se fosse uma criança aprendendo a falar. Por meio do acesso a muitas informações disponíveis na web (não se sabe ao certo quanto), como páginas, livros e notícias, a ferramenta consolidou informações, criando uma interação fluída. Essa criança interage conosco com base em um conjunto de dados de treinamento que inclui uma ampla variedade de perguntas e respostas.

O problema mais imediato em relação ao direito do autor tem sua origem na falta de fundamentação ou referência utilizada para dar uma determinada resposta. Logo, o ChatGPT pode aprender com a tese de algum estudioso, e usá-la em seu favor para dar respostas, sem, contudo, indicar qual a referência para a resposta. Se cabe ao recebedor de qualquer informação reconhecer a credibilidade desta, cabe à ferramenta (ChatGPT), fornecer os elementos e fonte. Atualmente, a ferramenta silencia sobre o embasamento da resposta.

Caberá a nossa sociedade definir se este tipo de ferramenta terá personalidade jurídica, e se suas respostas devem trazer a referência da fonte bibliográfica, de tal modo a não cometer plágio. Por outro lado, também devemos definir se o produto emanado pela ferramenta, terá algum tipo de proteção ou alerta da autoria.

É possível apontar algumas preocupações éticas que o ChatGPT evidencia?

Primeiro precisamos entender que o ChatGPT foi o aplicativo que mais rápido atingiu 100 milhões de usuários ativos. É um retumbante sucesso, sem qualquer sombra de dúvidas. As pessoas podem utilizá-lo desde para escrever uma poesia, ou até mesmo para escrever um projeto de lei, como ocorreu em fevereiro deste ano na Assembleia Legislativa de Santa Catarina. A inteligência artificial escreveu um projeto de lei que estabelece a obrigatoriedade do Estado em divulgar o estoque de medicamentos. Os exemplos mostram que a miríade de uso é infindável, estamos apenas no começo de uma transformação.

Um dos problemas éticos mais graves que estão presentes na ferramenta, e passam desapercebidos ao usuário, é o mesmo que assola a área de tecnologia como um todo: a concentração de poder. São produtos desenvolvidos por grandes empresas de tecnologia, com vultuosos aportes de capital, e natural conhecimento para este tipo de empreitada.

No passado recente da internet, havia dezenas de buscadores de websites, do tipo Google. Um a um, os outros buscadores foram descontinuados e atualmente mais de 95% dos brasileiros usam um único buscador, o Google. Existem outros, evidentemente, mas “confiamos” mais em um único buscador, que se tornou um mnemônico de marca. O mesmo pode acontecer com o ChatGPT, que apesar de disfrutar da primazia, precisará de folego financeiro e mais inovação para se manter na liderança.

Outra preocupação ética é qual o modelo de remuneração a ser adotado pela ferramenta. Haverá algum tipo de campanha patrocinada, nos moldes daquilo que acontece com o Google Ads? O Google, depois de lançado (1998), levou 2 anos para apostar em remuneração baseada em anúncios pagos.

Também é obscuro quais informações são coletadas dos usuários ativos da ferramenta. Lembremo-nos que o uso do ChatGPT demanda e-mail, e está atrelado a determinado hardware (computador pessoal ou smartphone), ambos com IP. Quais informações são coletadas e como são tratadas as conversas que cada usuário realiza? Entender de forma clara como essas informações são utilizadas pelas empresas que possuem estas ferramentas é fundamental.

Como podemos perceber se um conteúdo gerado por ferramentas como o ChatGPT é informação ou propaganda? Como nos protegermos destes riscos?

Essa é uma questão muito contemporânea. De forma ampla podemos afirmar que as pessoas não sabem os impactos de um anúncio no Google Ads, o que são cookies, por quais razões recebem determinado anúncio quando acessam um website ou, ainda, quais são os dados que são coletados enquanto navegam pela internet.

Por enquanto, o ChatGPT não possui anúncios como os buscadores, e não sabe se um dia haverá algum tipo de publicidade neste tipo de ferramenta. Porém, já é certo que o ChatGPT indica empresas como respostas. Imagine uma pessoa que more em São Paulo e tenha interesse em comprar um futon, um colchão japonês que pode ser dobrado, enrolado ou moldado como um sofá.

Se uma pessoa perguntar ao ChatGPT o que é um futon, terá uma resposta realmente completa. Se esta mesma pessoa perguntar onde comprar futon na cidade de São Paulo, receberá uma lista com três empresas. Todas as respostas e dados das lojas, incluindo nome, endereço e telefone, estão corretos. O ponto é: existem na cidade de São Paulo dezenas de empresas que vendem futons. Por que apenas três empresas foram listadas?

Se por um lado existem três empresários orgulhosos de terem as empresas mencionadas, existe uma quantidade ainda maior de indivíduos preocupados ou perguntando-se a razão de sua firma não ter sido mencionada. Aos orgulhosos empresários, um alerta: sua empresa pode ser, a qualquer momento, substituída, pois com o incremento da função de aprendizado, a ferramenta pode “mudar” de opinião.

Quem garante que as respostas do ChatGPT mostram as melhores empresas que vendem futon em São Paulo? Quais websites ou base de informações a ferramenta teve acesso para parametrizar suas respostas? Sobre o empresário excluído da resposta, como passar a fazer parte da lista do ChatGPT? Por que uma empresa é indicada primeiro? Ou seja: qual a relevância para ser a primeira resposta?

Aa respostas destas questões são conhecidas apenas pela Open AI, empresa que desenvolve o ChatGPT. Este é o ponto de inflexão para nosso raciocínio: somos colocados frente à ferramentas extremamente intuitivas e pouco questionamos quais os parâmetros que existem ou as regras que nos submetemos depois que clicamos “enter”.

Por enquanto, não há uma forma de identificar se um conteúdo tem ou não patrocínio dentro deste tipo de plataforma. Por esta razão, ainda não existe uma proteção adequada.

Como a Inteligência Artificial pode agravar questões relacionadas à concorrência desleal?

A pandemia nos colocou ainda mais voltados aos nossos smartphones e a interação pela internet, em especial em relação aos nossos hábitos de consumo. Voltemos ao exemplo da pessoa que deseja comprar um futon. Mesmo que sua decisão seja comprar o produto na loja física mais próxima, ela possivelmente pesquisará preços no seu smartphone.

No caso dos futons, o ChatGPT indica três empresas concorrentes. Por que as demais empresas não são nomeadas? Interessante notar que a ferramenta já está apta para receber patrocínio, pois possui funcionalidade de indicar nominalmente empresas de um ramo. Basta incluir uma funcionalidade que, mediante remuneração, fará com que a empresa anunciante seja nomeada entre os resultados pesquisados. Outra questão é se o usuário será informado que se trata de um anúncio patrocinado.

Independente de remuneração em favor do ChatGPT, é leal que esta ou outra ferramenta do mesmo tipo apresente aos consumidores apenas parte das empresas que vendem o mesmo produto? Deveria a IA ter a imparcialidade de demonstrar todos os concorrentes do mesmo segmento? Os buscadores do tipo Google ou Bing, ainda que privilegiem determinada marca que paga uma campanha patrocinada, também mostram as demais empresas que não pagam.

Como uma empresa que não é mostrada no ChatGPT faz para que a ferramenta mostre sua relevância? Se em último caso restar a via judicial, qual a obrigação da ferramenta em aceitar que determinada firma faça parte do rol apresentado? As respostas a estas perguntas são pouco óbvias e demandam verdadeira reflexão sobre ética e hábitos de consumo.

Tomemos o serviço do Google Ads como exemplo. Esta ferramenta permite que, mediante remuneração ao Google, seja parametrizada uma campanha publicitária que tornará relevante seu produto ou serviço, em caso de pesquisas no Google. A concorrência desleal nasce de campanhas que usam a marca registrada ou o nome de um concorrente para mostrar outra empresa. Quem nunca procurou uma marca no Google e teve como primeira resposta uma concorrente? Desde 2007, o Tribunal de Justiça de São Paulo enfrenta processos judiciais oriundos do uso indevido de marca registrada em campanhas de Google Ads. Entre 2007 e 2012, o Tribunal julgava todos os pedidos improcedentes. De 2013 até 2022 mudou sua orientação, passando a entender que o uso de marca registrada de concorrentes em campanhas de Google Ads era desleal. E, no apagar das luzes de 2022, as varas empresariais de primeira instância mudaram sua orientação e passaram a entender que o uso de marca registrada de concorrentes em links patrocinados não é concorrência desleal.

Em suma: transcorridos 15 anos dos problemas “criados” pelo Google Ads, nossa sociedade e judiciário ainda não foram capazes de estabelecer uma regra confiável e estável sobre o assunto. O que acontecerá quando questões oriundas de ferramentas como ChatGPT avançarem na seara judicial? Se com o Google Ads ainda não conseguimos definir uma regra, imaginemos uma ferramenta com o alcance e complexidade do ChatGPT!

O que esperar dos próximos passos desta corrida informacional? Quais temas a população deverá estar atenta para se proteger de informações falsas ou que as induzam a erro?

Na seara do ChatGPT, espero uma ferramenta para uso em massa, independentemente do dispositivo, que congregue as funções de pesquisa rápida e escolha de publicações recentes do Google ou Bing, com a intuitividade de uma assistente virtual do tipo Siri ou Alexa, e a incrível humanização da ferramenta ChatGPT, que permite um diálogo fluido.

Estamos diante de uma ferramenta que conseguiu se tornar muito assertiva sobre assuntos que ocorreram no passado, mas que atualmente é incapaz de responder a questões que aconteceram ontem ou na última semana. Lembremo-nos que a ferramenta somente processa informações consolidadas até setembro de 2021. O salto ocorrerá quando a ferramenta for capaz de dialogar com qualquer faixa etária sobre acontecimentos que ocorreram ontem ou poucas horas atrás, independente do dispositivo ou do modo de receber a informação.

Para que a população se proteja de informações falsas ou que levem a erro, ela precisa entender a revolução tecnológica que enfrentamos nos últimos 30 anos e assumir que ainda há muito a se debater sobre esta revolução. Historicamente a sociedade humana se organiza, cria algo inovador ou revoluciona, e depois os legisladores estabelecem as regras ou balizas. As discussões podem se arrastar por décadas, séculos, dados os interesses sempre difusos envolvidos.

Um bom exemplo de uma revolução cuja discussão perdurou por mais de dois séculos foi a invenção, em 1440, da prensa de Gutemberg, que permitia reproduzir algo em papel em larga escala. Seu invento foi o estopim de uma norma de pensar humana: quem tem o direito de publicar algo que escrevi ou desenhei, em larga escala, sem meu consentimento? Nascia com a prensa de Gutemberg a propriedade intelectual e o direito do autor sobre a obra. Ainda que a resposta seja relativamente óbvia nos dias de hoje, nunca algo tão inovador àquela época havia sido discutido. A primeira pacificação foi conquistada apenas em 1662 — mais de 200 anos depois da invenção da prensa —, quando a Inglaterra publica o Licensing Act, proibindo a impressão de qualquer livro não licenciado.

Voltando aos dias de hoje. Se pensarmos nos computadores dos anos 1990, e o que experimentamos hoje, é nítido que a interface do ser humano com a máquina e com o software se tornou infinitamente mais amigável. Porém — e agravada pela conectividade conquistada com a internet — pouco sabemos sobre o que acontece com nossos equipamentos conectados. Duas pessoas utilizando seus smartphones pesquisam “almofada” no Google e receberão respostas e anúncios diferentes. Mesmo que a LGPD (Lei Geral de Proteção de Dados) tenha trazido enormes avanços em proteger informações, pouco nos preocupamos com aquelas que autorizamos coletar. Menos ainda sabemos o quanto valem financeiramente e por quem são utilizados.

O exemplo da prensa de Gutemberg vale para este momento que estamos enfrentando, pois ainda demandará muita discussão e tempo para acomodarmos todos os interesses. Aliás, neste aspecto, mais um ponto para a tecnologia, pois, enquanto discutimos uma novidade, outra é criada. Tendemos a desviar nosso foco da discussão anterior.

É imperioso que as pessoas não sejam incautas e entendam tudo que acontece quando uma simples pesquisa é realizada em um site buscador ou quando se interage com uma ferramenta como o ChatGPT. Ainda que a resposta mais óbvia seja recomendar fontes confiáveis ou estudar sobre o assunto, opino que, se as big techs foram capazes de tornar a relação do usuário com a máquina e com o software tão amigável, que então agora se comprometam em mostrar, com a mesma simplicidade, as regras a que estamos submetidos. Enquanto isso não ocorrer, tendemos a ser a isca, e não o anzol.

As opiniões dos autores não refletem necessariamente o pensamento da Agência iNFRA, sendo de total responsabilidade do autor as informações, juízos de valor e conceitos descritos no texto

Tags:

Compartilhe essa Notícia
Facebook
Twitter
LinkedIn

Inscreva-se para receber o boletim semanal gratuito!

Inscreva-se no Boletim Semanal Gratuito

e receba as informações mais importantes sobre infraestrutura no Brasil

Cancele a qualquer momento!

Solicite sua demonstração do produto Boletins e Alertas

Solicite sua demonstração do produto Fornecimento de Conteúdo

Solicite sua demonstração do produto Publicidade e Branded Content

Solicite sua demonstração do produto Realização e Cobertura de Eventos