As IAs são ensinadas ou aprendem sozinhas?

A IA é artificial, mas é inteligente? O que é ser inteligente?

Eu aprendi a jogar xadrez, quase, sozinho. Como toda criança, eu era muito curioso e nos anos de 1980 numa pequena cidade do interior da Paraíba, tendo nascido em uma família sem muitos recursos, não tinha muito o que fazer. Um dia, eu vi os amigos do meu irmão mais velho “brincando” com um jogo que eu não conhecia: o xadrez.

No começo eu pedi para os caras que me ensinassem a jogar aquilo, mas o máximo que ouvi, foi que eu poderia observar eles jogando, e se quisesse, poderia tentar aprender. Então, com esta proposta, eu passei a observar o campeonato que eles organizaram, e a ouvir os comentários sobre o movimento de cada peça do jogo. E foi assim que eu aprendi, quase sozinho, a mexer com as peças do xadrez, e não exatamente a jogar, pois, como os caras diziam, jogar era outra coisa.

Depois de um tempo, já tendo aprendido o movimento das peças, comecei a ler alguns livros sobre táticas de abertura, defesa e ataque do xadrez, e a partir daí, tentei aprimorar o meu estilo de jogo. Nesta época, eu já era um adolescente e estava mais uma vez curiando o que passava na televisão da casa do vizinho.

Naquele dia, eu assisti a uma reportagem sobre um jogador profissional de xadrez que jogava contra uma máquina, e o que eu não sabia, era que aquela máquina era o Deep Blue, nome dado a um computador desenvolvido especialmente para jogar xadrez com os grandes campeões mundiais.

Assim, depois deste pequeno relato, posso arriscar dizer que o Deep Blue foi, sem que eu soubesse, minha primeira experiência, mesmo à distância, com uma “inteligência artificial”. E neste ponto, uso as aspas na expressão IA para afirmar que não tenho certeza como um curioso que sou neste campo, de que aquela máquina de jogar, era realmente uma IA.

O que sei é que o computador Deep Blue foi feito, programado ou “ensinado” para jogar xadrez a partir de um software desenvolvido também especialmente para executar tal tarefa. Ele tinha a capacidade de analisar milhões de jogadas ou movimentos por segundo e em seguida executar a melhor estratégia para ganhar a partida.

Então, a partir disso, já posso fazer a primeira pergunta: será que o Deep Blue, apenas analisava as possibilidades de jogada ou “pensava” de modo eletrônico sobre o que fazer e quais seriam as consequências ou resultados que poderiam vir a ocorrer de maneira a tentar “prever” o próximo movimento do jogador humano oponente.

Disto isto, neste instante, posso tentar realmente pensar em qual abordagem, eu penso ser, a mais fácil de entender sobre o desenvolvimento e o funcionamento de uma ética de IA. E antes disso, ainda devo pensar sobre o que é ética do ponto de vista da filosofia social ou política, para tentar, assim, fazer uma comparação com a ética artificial e não convencional de uma máquina.

Agora, mais perguntas surgem: o Deep Blue “pensava”? As máquinas modernas podem “pensar”? A IA é artificial, mas é inteligente? O que é ser inteligente, mesmo que artificial? E, o que é ser inteligente, humanamente falando? E partindo daqui, a abordagem de Martin Gibert (ÉTICA ARTIFICIAL Gibert, Martin (2019), “Ethique artificielle”) me parece mais sugestiva para a compreensão da ética da IA como uma disciplina, que ele mesmo chamou de transversal – o que eu não sei exatamente o que pode significar – e que pode ser abordada pelo agrupamento de problemas, também sugerido por ele.

Quando Gibert afirma que só existem IA fracas, restritas e não muito avançadas, esta proposta parece ser, pelo menos à primeira vista, mais fácil de ser utilizada para se tentar compreender a ética das máquinas.

Então decidi, tentar pensar em algo neste sentido, mas me pergunto de novo: se Gibert propôs IAs fracas, restritas e pouco avançadas há alguns anos, o que ele mesmo diria hoje, sobre as IAs que aparecem a cada mês ou semana. Posso arriscar dizer que, tomando como referência o que propõe Gibert, quando fala de IA de uso restrito, citando, por exemplo, os carros autônomos, que o Deep Blue foi uma experiência bem sucedida de IA restrita a um campo específico: o de jogar xadrez.

Já os três tipos de riscos abordados por Gibert, também me chamaram a atenção pelo fato de fazer com que eu me coloque mais próximo da observação ou experimentação do problema em si. O primeiro destes riscos, segundo Gibert é: o risco da IA bugar e cometer um erro fatal que prejudique, fira ou até mate os seres humanos. O segundo risco é: o uso malicioso das IAs com propósitos criminosos, terroristas e de manipulação de pessoas. E o terceiro risco é: o perigo do desenvolvimento de uma super IA hostil a seres humanos e que consiga se “proteger” dos seus próprios desenvolvedores e usuários.

Quanto aos três tipos de relações entre as IAs e os seres humanos abordados por Gibert, me parece também razoável se pensar que, a ideia mais lógica quando um programador desenvolve um programa de computador e uma máquina, é que estes dois recursos combinados sirvam para a execução de tarefas e/ou para a solução de problemas.

Então, posso me atrever a me apropriar em certo sentido da proposta de Gibert com mais perguntas provocativas: máquinas foram feitas apenas para servir aos seus criadores e usuários? Máquinas podem ou poderiam vir a escravizar as pessoas que as utilizam? IAs podem substituir trabalhadores em todos os setores? IAs podem e devem vigiar as pessoas em todos os lugares e circunstâncias? Super IAs podem ou devem discriminar pessoas ou grupos sociais? e por último, IAs podem ou devem manipular seres humanos?

Como jornalista, eu sou curioso o bastante para perguntar: a máquina “aprende” ou repete uma tendência, como um evento ou jogada mais frequente codificada e/ou armazenada em seus bancos de dados? Este “aprendizado” é o viés da IA, ou o viés dos desenvolvedores e/ou usuários?

Neste ponto, me sinto à vontade em dizer que para mim, o conceito de IA é ainda muito amplo e diversificado. Eu poderia arriscar afirmar que a IA é um programa de computação que “imita” a inteligência humana e que “reconhece, planeja, raciocina ou aprende a fazer por exemplos”, o que eu também arriscaria chamar de tendências digitais.

A IA não pensa. Ela pode ser chamada de inteligente, mas não tem consciência. Estou quase convencido disto. Mas não totalmente convencido. Para mim, ela segue ordens ou executa tarefas específicas em padrões estabelecidos por alguém que chamamos de programador, e que pelo que eu entendi, o viés é estabelecido ou configurado pela repetição das preferências deste programador-criador, o que eu arriscaria chamar de tendência homem-máquina.

Então, posso arriscar dizer também que, quanto mais repetição de uma informação ou de exemplos a máquina receber, mais “fácil” será a padronização de uma tendência de aprendizado da IA.

A máquina não aprende sozinha. Ela é ensinada pelos seus players ou programadores. Eu não aprendi a jogar xadrez sozinho. Minha base de dados foi alimentada a partir da observação da forma de jogar de outros jogadores. Eu aprendi o movimento das peças no tabuleiro do xadrez ouvindo os comentários de jogadores mais experientes, mas isso não significou, naquele momento, que eu tinha me tornado um grande jogador.

Então por analogia, arrisco mais uma vez a dizer que, as máquinas são “alimentadas” de informações e que estes dados podem ser tendenciosos, e ainda que, IAs precisam ser “ensinadas” pelos seus criadores a usar melhor esses dados de maneira que os resultados sejam o mais justo, preciso e ético possíveis de maneira a servir os seres humanas da melhor maneira e que estes não sofram nenhum tipo de dano ou risco ético ou moral.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *