Quais são as principais questões jurídicas que se colocam com a “entrada em campo” das ferramentas ChatGPT e do DALL-E?
A relação entre a tecnologia e o Direito sempre foi pautada por uma tensão incontornável e que precede e ultrapassa as tecnologias de informação.
As questões jurídicas que se colocam com estas tecnologias em geral, também se colocam com as ferramentas de Inteligência Artificial (adiante IA) generativa – como é o caso das interfaces ChatGPT e DALL-E. Estas tecnologias assentam em algoritmos que permitem a criação de conteúdos visuais, sonoros, textuais, publicitários, entre outros. Ao mesmo tempo, a IA generativa transporta desafios que lhe são particulares.

Desde logo, pelo facto de poder gerar resultados enviesados e discriminatórios, ou que possam comportar a responsabilidade civil ou penal. Simultaneamente, colocam-se questões relativas ao respeito pelos direitos dos autores dos conteúdos com os quais os sistemas de IA são alimentados, bem como quanto à titularidade dos direitos de propriedade intelectual das criações geradas por aqueles sistemas.
Outras questões prendem-se, ainda, com o direito à informação do consumidor, em particular, no que concerne à transparência dos sistemas e ao consentimento que a utilização destas ferramentas exige.
Em matéria de direitos de propriedade intelectual, o conteúdo (texto ou imagem) que resultar da utilização destas ferramentas é também passível de ser alvo de processos por plágio, caso haja uma semelhança com algo original. Antevê um acréscimo de contencioso, em virtude desta nova realidade?
A implementação destas ferramentas em diversas áreas de negócio e a sua exponencial utilização quotidiana potencializará, certamente, um acréscimo de contencioso porquanto os resultados gerados e divulgados poderão colidir com direitos de propriedade intelectual e, eventualmente, resultar na prática de utilização não autorizada de conteúdos intelectuais pré-existentes, contribuindo para a prática de crimes como a usurpação ou contrafação previstos e punidos pelo Código de Direito de Autor e dos Direitos Conexos (adiante CDADC).
Contudo, para que o resultado gerado por estas ferramentas fundamente um litígio judicial, dever-se-á previamente aferir sobre a efetiva cópia de uma obra protegida – isto é, o resultado apresentado pelo Sistema de IA é uma representação fiel e exata da obra original cuja titularidade é, em princípio, atribuída ao criador original (reprodução não autorizada) ou tratar-se-á de uma criação nova independente e também ela original?
Quais são as possíveis responsabilidades legais que as empresas que utilizam o ChatGPT e o DALL-E podem enfrentar em caso de violações de direitos de autor?
Para apurarmos as responsabilidades legais de uma pessoa coletiva decorrentes do uso destas ferramentas tecnológicas será necessário avaliar a conduta adotada durante o período de implementação e utilização que motivou tais infrações em juízo. Por outras palavras, terá adotado a empresa uma postura omissa, passiva ou ativa face à verificação de tais resultados? Importará responder a questões como: A entidade adotou uma postura negligente e absteve-se de diligenciar no sentido de mitigar o sucedido? Terão sido implementadas medidas internas de prevenção? Ou, na verdade, verificou-se a adoção de condutas que contribuíram e potencializaram tais infrações?
Dependendo dos prejuízos causados, as pessoas coletivas poderão ser responsabilizadas pelos danos patrimoniais ou morais causados aos lesados, bem como criminalmente responsáveis no âmbito de processos judiciais de tal natureza.

Note-se que, para acautelar eventuais responsabilidades, as empresas que façam uso de ferramentas de IA deverão procurar adotar medidas preventivas como políticas e procedimentos internos que visem garantir o cumprimento da legislação em vigor; a obtenção de autorizações e/ou licenças sempre que antecipem que uma nova criação poderá colidir com direitos de terceiros; garantir que os dados utilizados no Sistema de IA foram legal e licitamente obtidos; realizar análises de risco e zelar pela conservação de registos e documentação referentes a tais ferramentas.
Considerando que a máquina trabalha sempre a partir de dados existentes, o que for produzido por um ChatGPT ou por um DALL-E será sempre plágio?
Não necessariamente. Os Big Data utilizados para gerar os resultados destas ferramentas, embora contenham informações pessoais, ideologias e obras pré-existentes, são recolhidos para tratamento e criação de um resultado adequado ao solicitado pelo utilizador. Ou seja, o resultado gerado dependerá dos inputs que o utilizador facultará ao Sistema de IA.
Por outras palavras, se um utilizador fornecer inputs que são, desde logo, cópias exatas de um trabalho pré-existente que seja protegido por direito de autor ou imagem sem que seja obtida a prévia autorização junto do respetivo titular para o efeito, o output gerado que os contenha poderá, eventualmente, violar o direito de autor ou imagem de terceiro.
Importa, igualmente, a qualidade dos Big Data pelos quais os sistemas de IA são alimentados. Se o conjunto de dados utilizados para treino destes sistemas se demonstrar, de antemão, corrompido por informações falsas e imprecisas, tal poderá potenciar a violação de direitos de terceiros.
Qual é a fronteira jurídica que se pode estabelecer entre o “plágio cometido pela IA” e a “criatividade resultante da IA”?
Atualmente, tal fronteira ainda se mostra muito dúbia, mostrando-se ainda bastante precoce a individualização destes dois conceitos.
Ao abrigo da legislação portuguesa, uma obra será protegida por direito de autor caso se trate de uma criação intelectual do domínio literário, científico e artístico, por qualquer modo exteriorizada. Para tal proteção se verificar, a originalidade e criatividade que devem caracterizar a obra intelectual resultarão, necessariamente, de uma intervenção humana – e bem sabemos a complexidade que, por vezes, envolve a concretização da originalidade de uma criação.
Contudo, não poderemos deixar de refletir sobre as “novas composições criadas” por estes sistemas e o papel, cada vez mais autónomo, que um sistema de IA tem na produção de um qualquer conteúdo. Trata-se, na verdade, de um caminho ainda longo a trilhar quanto à potencialmente denominada “criatividade resultante da IA”.
As primeiras discussões e casos são já uma realidade, nomeadamente nos Estados Unidos da América junto do US Copyright Office. Mas também neste âmbito não podemos esquecer a distância ainda existente (embora nos dias de hoje cada vez mais esbatida) entre os sistemas autorais europeus e anglo-saxónicos. Certamente, a curto prazo, teremos orientações mais concretas nestas matérias que nos permitam responder de forma mais assertiva a tal questão.
É também possível proteger os direitos intelectuais de obras criadas com ferramentas de Inteligência Artificial? Como é que isso pode ser feito?
Como referimos, a criação de obras protegidas por direito de autor, pressupõe sempre uma intervenção humana – ou seja, a obra será sempre o reflexo do espírito intelectual humano do seu criador. Cabe, assim, salvo disposição expressa em contrário, ao criador intelectual da obra o direito de autor sobre a mesma.
Tal circunstância tem motivado ao longo dos tempos diversas discussões, nomeadamente no que diz respeito à eventual reinterpretação do conceito de autoria e proteção autoral de obra. Discussões essas que têm sido naturalmente potenciadas pelos mais recentes sistemas de IA.
Ora, se a tendência, até agora, tem sido no sentido de rejeitar proteção autoral à produção de obras (nomeadamente artísticas) por tais sistemas onde não existe qualquer contributo humano para o processo criativo, a verdade é que já se perspetivam eventuais “ventos de mudança”. Designadamente, o US Copyright Office emitiu, há poucos dias, uma orientação no sentido de esclarecer que obras artísticas criadas com a ajuda de IA poderão ser elegíveis para estes efeitos. Pelo que, aguardemos por orientações uniformizadas quanto a esta matéria.

As empresas podem utilizar o ChatGPT para apoiar os seus clientes. Mas como é que a responsabilidade civil pode ser atribuída no caso de decisões tomadas pelo ChatGPT que resultem em danos a terceiros? Quem é responsável nesse caso: os utilizadores, as empresas ou os desenvolvedores dessas tecnologias?
Com a crescente utilização das ferramentas de IA no contacto com o cliente, é expectável o surgimento de situações em que as informações prestadas sejam incorretas e, eventualmente, propícias a originar prejuízos a terceiros.
Para se abordar o tema da responsabilidade, importará avaliar, primeiramente, a participação humana no contacto com o utilizador.
Se o apoio ao cliente for efetuado por intermédio de um colaborador que utilize uma ferramenta de IA implementada pela empresa, a análise da eventual responsabilidade pelos prejuízos causados não apresentará desafios particulares. Assim, importará avaliar a conduta da empresa, nomeadamente quanto à possível negligência na implementação das ditas ferramentas, bem como na adoção de medidas de segurança exigíveis.
Por sua vez, e mais desafiante, mostra-se o caso em que o apoio ao cliente é feito integralmente através de uma ferramenta de IA, disponibilizada pela empresa. Neste caso, para além das relações contratuais subjacentes à disponibilização e operação do sistema de IA, a análise dependerá do fator que contribuiu para a informação gerada que veio a provocar danos a terceiros. Isto é, a avaliação pela lei dependerá, por exemplo, da origem do dano estar no algoritmo original ou nos dados com que a empresa alimentou o sistema.
Vislumbram também desafios relacionados com as questões de privacidade na utilização dessas tecnologias ChatGPT e do DALL-E? De que género?
Já é um lugar-comum afirmar que os dados pessoais são a nova base da economia. Estes desempenham um papel fundamental nos mais variados contextos, o que ocorre também na alimentação dos sistemas de IA.
A grande quantidade de dados que alimentam os algoritmos de IA pertencem a pessoas cujo consentimento para o efeito não foi, muitas vezes, prestado. As violações de privacidade são potenciadas, ainda, pela frequente opacidade dos sistemas.
Em que medida o uso do ChatGPT e do DALL-E pode afetar a privacidade dos utilizadores? Podem exemplificar?
Estas ferramentas assentam em modelos de linguagem suscetíveis de gerar respostas personalizadas consoante os inputs do utilizador. Cabe, assim, questionar se o tratamento desses dados respeita a legislação em vigor – o que não é diferente do que acontece com a utilização de outros sistemas que não sejam de IA.
Particular deste contexto é a possibilidade de as informações fornecidas pelos utilizadores poderem ser usadas para melhorar o próprio sistema. Caberá, assim, apurar, por exemplo, se existe fundamento lícito para o tratamento dos dados que os utilizadores revelem durante o uso destas ferramentas de IA generativa, com a finalidade da melhoria da própria ferramenta.
É crucial a implementação de medidas de controlo, fiscalização, segurança e privacidade que visem garantir que os dados dos utilizadores sejam protegidos e que as informações geradas por estas ferramentas sejam aplicadas de forma ética e responsável.
Existem desafios específicos relacionados com estas tecnologias que precisam de ser abordados em termos de conformidade com a legislação? Ou a lei existente é suficientemente abrangente para ser capaz de cobrir esta nova realidade que está a surgir?
A lei deve ser geral e abstrata. A discussão sobre se a lei deve ser neutra, face ao desenvolvimento da tecnologia, não é consensual. Muitas das novas realidades não se enquadram naquilo que o legislador considerou quando criou a lei.
Importa salientar que, acima de tudo, é importante que a legislação seja flexível e adaptável, para que seja possível acompanhar a evolução tecnológica e assegurar que a tecnologia será usada de forma ética e responsável.