Deparamo-nos com algumas histórias interessantes nas redes sociais e artigos de opiniões, sobre o uso dos Grandes Modelos de Linguagem do mercado, como por exemplo, o ChatGPT desenvolvido pela OPenAI.
Neil Taylor, fundador da consultora “Schwa”, fez um teste com o ChatGPT: usou a ferramenta para preencher os documentos de seleção de candidatos em ofertas de emprego. O objetivo era verificar se a equipa de recursos humanos conseguiria identificar um robot entre os candidatos humanos.
Para além de apresentar a resposta ao desafio, ficou ainda classificado para ir participar numa reunião de entrevista.
O americano Ammaar Reshi usou ferramentas de inteligência artificial, como ChatGPT e Midjourney, para criar o seu livro infantil. Obteve um livro ilustrado em 72 horas. Publicou o livro na secção de e-books da Amazon e vendeu 841 cópias ao longo de 8 dias.
Inúmeras são as histórias sobre as respostas humanizadas do ChatGPT. Porém, fica uma pergunta em aberto sobre os desafios dos enviesamentos sociais. Não sabemos quais os critérios de seleção e requisitos inseridos por Neil Taylor e Ammaar Reshi para parametrizar as respostas.
Neste sentido, a questão premente aqui é, também, sobre a efetiva democratização da inteligência artificial e da mitigação de riscos de enviesamento assentes em estereótipos.
Um artigo da MIT Technology Review, fala sobre o BLOOM (Bigscience Large Open-science Open-access Multilingual language model), que foi projetado para ser o mais transparente possível, ao contrário dos demais modelos de linguagem disponíveis.
Aqui, o diferencial é a proposta de partilha dos detalhes sobre os dados utilizados sobre os quais foi treinado. Mas há mais exemplos.
Desenvolvido dentro do Centro Nacional de Pesquisa Científica em Paris, com mais de 1000 pesquisadores voluntários, multirraciais, multi-géneros e multi-étnicos, coordenado por uma start-up de IA, surge a Hugging Face.
Financiado pelo Governo francês e criado em julho de 2022, tem como expectativa, que o desenvolvimento deste novo modelo de linguagem e de código aberto, gere mudanças duradouras na cultura do desenvolvimento de Inteligência Artificial.
Com estes pressupostos, visiona-se potenciar a democratização do acesso a tecnologia mais inovadora e disruptiva para os pesquisadores de todo o mundo.
Pese embora estas ações, não deixamos de ter de considerar muitos desafios num futuro próximo.
Um exemplo: produção de conteúdos com enviesamentos causados pela exclusão de temas, gestão e inexistência de modelos de governação dos dados para os modelos de linguagem.
A responsabilidade ética, é, entre outros temas, um propósito da Women In Tech.
Os desafios estão na mesa, os danos potenciais já foram lançados ao mundo, agora esperamos que com transparência e inclusão, surjam análises ampliadas por parte dos pesquisadores e mais estudos de casos. Assim, aguardamos a democratização do uso da inteligência artificial, com criação de condições para investigações que respondam a estes desafios.
Ana Carla Lopes
Advisory Board Member da Women In Tech Portugal