DESTAQUES
Será que os Modelos de Inteligência Artificial Estão Sendo Treinados com Nossos Papers?
Em recente artigo publicado na revista Nature, intitulado "Has your paper been used to train an AI model? Almost certainly" (https://www.nature.com/articles/d41586-024-02599-9), a autora busca alertar os pesquisadores sobre o uso de seus papers por empresas de inteligência artificial, destacando editoras como Taylor & Francis e Wiley, que receberam algumas dezenas de milhões de dólares para disponibilizar seus acervos para esse fim.
As editoras são importantes pela constante busca de qualidade, pelo auxílio aos pesquisadores nos processos de revisão por pares, que garantem o contínuo aperfeiçoamento das pesquisas publicadas e por darem visibilidade mundial a esses trabalhos. No entanto, enfrentam desafios significativos para manter a viabilidade econômica e a sustentabilidade do modelo atual.
O progresso da ciência, contudo, requer esforços e práticas que promovam a acessibilidade universal e o livre fluxo de informações. Com os avanços recentes, esses esforços devem também incluir a disponibilização de todo o conjunto de obras científicas, livros, artigos, textos de conferências e demais documentos para o treinamento de modelos de inteligência artificial (IA). Como pesquisador, não vejo problemas nisso: sou da opinião de que as editoras podem e devem disponibilizar nossos artigos para o treinamento de modelos de IA.
Quando publicamos artigos científicos, o nome já diz: publicamos, ou seja, tornamos seu conteúdo científico público, buscamos visibilidade. Os artigos ficam disponíveis para, a partir daí, serem usados pela academia, por empresas com ou sem fins lucrativos e, num sentido ainda mais amplo, para o avanço da ciência e de tecnologias, como a IA, sem negligenciar os direitos dos autores e inventores. Sim, o binômio ciência e tecnologia é uma construção coletiva para a qual contribuímos com nossos artigos; artigos esses que desejamos sejam amplamente lidos, usados e citados. Na realidade, todos gostaríamos que nossos trabalhos fossem para sempre "Open Access" visando o bem de toda a humanidade, apesar dos desafios financeiros e práticos que tornam isso difícil para muitas revistas e editoras.
Portanto, como pesquisadores, devemos celebrar o uso de nossos artigos para o treinamento de modelos de inteligência artificial, que é a principal tecnologia deste século XXI.
Não vejo qualquer problema em um ser humano aprender com meus trabalhos, como também não vejo nenhum problema em uma IA também poder fazê-lo.
No estágio atual, tais modelos já são excelentes ferramentas, por exemplo, para a lapidação de textos originais nossos, ainda mais especialmente se o usuário não for um falante nativo do idioma da revista. Outro cenário de aplicação que considero dos mais proveitosos é utilizar vários diferentes modelos de IA para brainstormings, com o objetivo de pesquisar lacunas de conhecimento e nichos de pesquisa ainda inexplorados, obtendo sugestões para trabalhos futuros. E toda essa tecnologia se torna tanto mais útil quanto mais os modelos de IA tiverem acesso a absolutamente tudo o que foi e está sendo publicado.
O artigo supracitado poderia ter abordado de forma mais clara as nossas verdadeiras preocupações e legítimos interesses enquanto pesquisadores e inventores no que diz respeito ao uso de nossos artigos e patentes pelos modelos de IA. Vamos, então, aproveitar esta oportunidade oferecida pelo Boletim da SBQ para complementar e aperfeiçoar aquela argumentação.
Enquanto aplaudimos o potencial da IA como ferramenta de pesquisa, é fundamental que esses avanços sejam acompanhados de rigorosas práticas de integridade acadêmica. Sim, como pesquisadores, a integridade acadêmica é um princípio para nós essencial. Para que uma IA utilize nossos artigos e patentes, será necessário, portanto, exigir que ela reconheça autorias, garantindo a rastreabilidade do conhecimento, não negligenciando os direitos dos autores e inventores, incluídas aí as necessidades de licenciamento quando aplicáveis. Devem estar sujeitas, portanto, às mesmas regras éticas e legais aplicáveis aos humanos.
Embora os avanços tecnológicos alcançados até hoje sejam impressionantes, ainda restam desafios consideráveis para os desenvolvedores. É essencial, por exemplo, que as IAs sejam treinadas para fazer citações corretas e comparar suas saídas com conteúdo já publicado, garantindo que o texto gerado seja original e adequadamente referenciado, evitando paráfrases ou reproduções literais sem a devida atribuição.
Duas outras preocupações que será necessário termos são tanto a desigualdade de acesso aos recursos de IA quanto os notórios vieses nos modelos de IA de linguagem de grande escala, conhecidos como LLMs. Embora esforços estejam sendo feitos para mitigar esses problemas, tais vieses podem vir a priorizar áreas de pesquisa ou autores mais visíveis, negligenciando trabalhos de pesquisadores menos conhecidos ou de regiões com menos recursos e financiamento, o que levaria à propagação de uma visão mais restrita da ciência, prejudicando seu progresso de forma mais abrangente.
Finalmente, para toda ferramenta criada, há tanto um bom quanto um mau uso. Um exemplo atual é o uso inadequado da IA, que vem se agravando. Entre os problemas observados estão textos gerados por IA com argumentações desconexas, falaciosas, afirmações infundadas, "frases torturadas", dados inventados, imagens manipuladas, além de referências sem pertinência, irrelevantes ou inexistentes (https://www.nature.com/articles/d41586-024-02747-1). Porém, a verdade é que o progressivo avanço da IA irá tornando cada vez mais difícil distinguir o que é verdadeiro do que é falso, com impacto em todas as áreas e múltiplos setores essenciais da vida moderna.
Mas e quando, no futuro, os modelos de IA forem realmente capazes de realizar pesquisas por conta própria e escrever trabalhos completos para publicação? A questão aqui não é "se" isso vai acontecer, mas "quando". Bem, quando acontecer, as regras da integridade acadêmica deverão evoluir para lidar com essa nova realidade, desenvolvendo métodos eficazes para avaliar a contribuição intelectual da IA distinguindo-a das humanas e garantindo que o conhecimento produzido por máquinas seja sempre revisado por pares humanos. Entre várias preocupações, será essencial assegurar que os métodos e dados sejam acessíveis e verificáveis, que os trabalhos anteriores relevantes estejam corretamente citados e que o trabalho passe por revisão por pares para verificar sua plausibilidade e coerência com o corpo de conhecimento existente de forma a permitir a replicação dos experimentos, além de obter aprovações éticas quando necessário. A integridade dos resultados dependerá de uma responsabilidade compartilhada entre desenvolvedores de IA e pesquisadores, com papéis distintos, mas complementares, garantindo uma produção científica ética e rigorosa.
Será mesmo um desafio lidar com a produção automatizada de conhecimento, mas também uma grande oportunidade para expandirmos as fronteiras da ciência, desde que tudo seja regulado de forma ética e transparente.
Assim como as gerações anteriores de pesquisadores colaboraram para construir os fundamentos do conhecimento, a IA agora poderá nos auxiliar a expandi-los.
Parafraseando Newton, se a inteligência artificial conseguir ver mais longe, será porque terá subido nos nossos ombros de gigantes.
Fonte: Prof. Alfredo Mayall Simas da UFPE
|
|