Pesquisar

A ética e a inteligência artificial – por: Luiz Alberto Machado

O surgimento e a grande repercussão dada ao ChatGPT, ferramenta mais comentada nos meios de tecnologia no momento, me levaram a uma série de reflexões. Uma delas, expressada no Diálogo no Espaço Democrático gravado com o fundador e diretor-geral do Centro de Excelência em Inteligência Artificial de Goiás, Prof. Anderson Soares[1], diz respeito ao bom ou mau uso que pode ser feito da referida ferramenta. Antes de seguir com a reflexão, cabe lembrar que o ChatGPT é uma ferramenta de inteligência artificial especializada em diálogos que vai muito além de uma espécie de Google que, em vez de oferecer links nos quais se pode encontrar a resposta buscada, concebe um texto com a solução pronta. Trata-se, portanto, como assinalou o professor da Universidade Federal de Goiás, da primeira inteligência artificial adaptativa e evolutiva que pode ser instruída e tem capacidade de aprender. O ChatGPT traz uma vez mais à tona a questão da relação entre a ética e a tecnologia, amplamente debatida por ocasião dos testes realizados com o carro autônomo diante da necessidade de tomar uma decisão que poderia resultar na morte de um ser humano. Um dos que abordou o tema foi Yuval Harari no livro 21 lições para o século 21[2]. Suponha que dois garotos correndo atrás de uma bola vejam-se bem em frente a um carro autodirigido. Com base em seus cálculos instantâneos, o algoritmo que dirige o carro conclui que a única maneira de evitar atingir os dois garotos é desviar para a pista oposta, e arriscar colidir com um caminhão que vem em sentido contrário. O algoritmo calcula que num caso assim há 70% de probabilidades de que o dono do carro – que dorme no banco traseiro – morra. O que o algoritmo deveria fazer? Depois de tecer uma série de considerações a respeito da situação, chegando mesmo à possibilidade extrema de uma companhia como a Tesla produzir dois modelos de carro, o Altruísta e o Egoísta, Harari complementa fornecendo uma importante informação adicional: Num estudo pioneiro, em 2015, apresentou-se a pessoas um cenário hipotético de um carro autodirigido na iminência de atropelar vários pedestres. A maioria disse que nesse caso o carro deveria salvar os pedestres mesmo que custasse a vida de seu proprietário. Quando lhes perguntaram se eles comprariam um carro programado para sacrificar seu proprietário pelo bem maior, a maioria respondeu que não. Para eles mesmos, iam preferir o Tesla Egoísta. Imagine a situação: você comprou um carro novo, mas antes de começar a usá-lo tem de abrir o menu de configurações e escolher cada uma das diversas opções. Em caso de acidente, quer que o carro sacrifique sua vida – ou que mate a família no outro veículo? Essa é uma escolha que você mesmo quer fazer? Pense nas discussões que vai ter com seu marido [ou sua esposa] sobre qual opção escolher. Decisões dessa natureza se assemelham, de certa forma, à que precisou ser tomada pela atriz Meryl Streep no filme A escolha de Sofia[1]. No referido filme, por ocasião da Segunda Guerra, uma mãe judia [interpretada por Meryl Streep] é obrigada pelos nazistas a escolher, entre seu filho e sua filha, qual seguirá para os campos de concentração. Voltando às reflexões provocadas pelo ChatGPT, recordo-me que nos mais de 35 anos em que atuei como professor universitário, sempre me preocupei com questões relacionadas à ética e a moralidade e, nesse aspecto, lugar especial cabia à lisura na realização de provas e trabalhos por parte dos alunos. Meu raciocínio seguia uma lógica: colar ou plagiar é uma forma de corrupção que está ao alcance do estudante; se não for coibida, poderá passar a ser considerada uma prática normal a ser adotada em outras situações. Certa vez, um aluno punido por esse motivo me disse: “Professor, não sei porque tanta preocupação. Afinal, ao colar eu só estou enganando a mim mesmo e – acrescentou com um sorrisinho maroto – ao senhor”. Argumentei com ele que meu sonho era ver um Brasil cada vez melhor, em que a meritocracia seria a regra e, nessa linha, o bom desempenho acadêmico seria fator decisivo para o passo seguinte na carreira de qualquer pessoa, com as notas sendo adotadas como fator de entrada nos cursos superiores ou para contratação pelas empresas. Se isso vier a ocorrer – e já ocorre de certa forma com o aproveitamento das notas do Enem para ingresso nas faculdades – o aparentemente pequeno ato de corrupção não enganaria só ao aluno e seu professor, mas a toda a sociedade, uma vez que o recurso ilícito seria a porta de entrada para a universidade ou para a carreira profissional. Nos anos finais dedicados à docência – me aposentei em 2017 – o controle de eventuais fraudes já era bem mais complicado, dadas as facilidades oferecidas pelos sites de busca como o Google que permitiam que os alunos recorressem ao “copiar e colar” para a elaboração de seus trabalhos. É claro que bons professores estavam aptos a evitar as fraudes, propondo trabalhos que exigissem alguma criatividade dos alunos e não a mera reprodução de conceitos ou fórmulas prontas ou mesmo fazendo questionamentos adicionais para aferir o real conhecimento dos estudantes quando houvesse dúvidas a respeito da autoria da tarefa. Tal atitude será ainda mais necessária de agora em diante, pois o uso do ChatGPT e de outras ferramentas de inteligência artificial que surgirão num ritmo cada vez mais alucinante estará à disposição de estudantes ou profissionais dispostos a não pensar duas vezes diante da possibilidade de fazer uso da fraude e de outros métodos ilícitos como atalho para a obtenção de seus anseios acadêmicos ou profissionais. Todas essas reflexões me levaram a resgatar um artigo escrito para a Agência Planalto[1] em 1985 intitulado “quem não cola, não sai da escola”[2], que começava da seguinte forma: Poucas vezes se consegue, acidentalmente, demonstrar um fenômeno de forma tão significativa como consegue um anúncio que tem sido veiculado por nossas redes de televisão nos dias atuais: trata-se do problema da “cola”, presente