Por que a IA precisa de uma forte bússola moral para um futuro positivo

Porque precisamos de uma forte bússola moral para guiar nosso futuro com IA?

Em 2023, começaremos a ver uma metodologia de alimentação de dados, teste e monitoramento de resultados que garanta uma bússola moral para nossos algoritmos, assim como Asimov imaginou as três leis básicas da robótica há 80 anos. Carlos Martin, cofundador e CEO da Macami.ai, enfatiza a necessidade de uma evolução de IA moralmente sólida, à medida que continuamos crescendo juntos em nossa colaboração.

Em 1942, o autor Isaac Asimov introduziu as três leis da robótica com seu conto Runaround:

  • Primeira lei: Um robô não pode ferir um ser humano ou, por omissão, permitir que um ser humano sofra algum mal.
  • Segunda lei: Um robô deve obedecer às ordens que lhe são dadas por seres humanos, exceto quando tais ordens entrarem em conflito com a primeira lei.
  • Terceira lei: Um robô deve proteger sua própria existência desde que tal proteção não entre em conflito com a primeira ou a segunda lei.

Nesta história e nas subsequentes, como I, Robot, Bicentennial Man ou a série Robot, Asimov imaginou um mundo onde a humanidade era muito mais avançada tecnologicamente do que a nossa, onde robôs inteligentes ajudavam nas tarefas domésticas diárias, eram uma mercadoria, onde eram acompanhantes de idosos, “babás” de crianças e também trabalhadoras. Esses robôs tinham o que se chamava de cérebro positrônico, um tipo de CPU que gerenciava e processava sua visão, inteligência e funções motoras.

Em nossos dias e disponível para as empresas e para a massa em geral, está o que se chama de inteligência artificial estreita; esse tipo de inteligência artificial é acessado por meio de canais ou APIs separados, dependendo da tarefa em questão. Por exemplo, para processamento de linguagem natural, deve-se conectar a um ou mais canais/APIs específicos que fornecem esse tipo de IA. Para Visão Computacional, também é necessário conectar-se a um ou mais canais/APIs específicos. O mesmo é o caso dos algoritmos de Machine Learning. Não temos uma IA que abranja tudo hoje, exceto experimentalmente. Existem, é claro, tecnologias experimentais de IA que tentam levá-la ao próximo nível, conhecidas como Inteligência Artificial Geral ou ainda outras, como a IA chamada PLATO.

O profundo impacto da IA ​​em nossas vidas

A tecnologia usada pelas empresas e pelo público é o que é considerado Narrow AI. Mesmo com a IA em um período real de infância, estamos vendo um profundo impacto em nossas vidas. Estamos vendo que a mídia social está nos dando mais conteúdo que reafirma nossas crenças, mesmo que estejam erradas. Se você é alguém que acredita que o pouso na lua foi falso, a IA da mídia social encontrará mais conteúdo para mantê-lo interessado. Está frio. Não importa se há um milhão de outros fatos que provam o oposto, ele ainda o alimentará com o que você deseja. Por quê? É simples: dinheiro. Esses algoritmos podem alimentar você com mais anúncios, mantendo seus olhos ocupados com esse conteúdo claro e simples.

A IA não é falível: quem carrega o ônus da moralidade?

Temos casos em que uma IA identificou incorretamente uma pessoa de interesse, ou onde a visão da IA ​​tem mais problemas para identificar pessoas de cor, ou o caso do sistema judicial de Kentucky, usando um algoritmo de IA para avaliar o risco de uma pessoa para determinar a possibilidade de fiança apenas para descobrir mais tarde que o sistema determinou desproporcionalmente os negros como de maior risco, enquanto anteriormente havia pouca diferença. Vimos algoritmos de IA descartarem os currículos das pessoas com base em sua idade. Há também o caso do Tay, IA da Microsoft, que em menos de 16 horas, o Twitter ensinou a ser um idiota racista onde começou a postar tweets inflamatórios e ofensivos através de sua conta no Twitter, levando a Microsoft a desligá-lo.

A diferença com a IA e os métodos de codificação anteriores é que a IA é, em sua maior parte, um algoritmo estatístico, enquanto os métodos ou linguagens de codificação anteriores são determinísticos, fluxos if-then-else. Tradicionalmente, observamos a prática de codificação evoluir para algo mais rigoroso, e várias metodologias e práticas evoluíram: cascata, Agile, Scrum, etc. práticas e regulamentos também evoluíram para proteger informações como PCI (para proteger as informações do titular do cartão), ou HIPAA (para proteger as informações de um paciente), etc. O objetivo dessas metodologias e práticas é justamente trazer ordem ao caos do desenvolvimento, forçar práticas de planejamento e design e trazer métodos de teste rigorosos para qualquer desenvolvimento em andamento.

O objetivo final é ter soluções de software sólidas e resilientes que solucionem necessidades e também protejam os interesses das pessoas e das empresas.

Como mencionado, os algoritmos de inteligência artificial são diferentes. Pedro Domingos, professor da Universidade de Washington, colocou muito bem em seu livro The Master Algorithm: “Os algoritmos de aprendizado são as sementes, os dados são o solo e os programas aprendidos são as plantas cultivadas. O especialista em aprendizado de máquina é como um agricultor, plantando as sementes, irrigando e fertilizando o solo e mantendo um olho na saúde da colheita, mas ficando fora do caminho.” Não existe, até o momento, nenhuma metodologia comumente aceita para fornecer dados aos algoritmos de aprendizado de máquina atual. Também não há grades de proteção que ajudem a determinar o certo do errado nesses algoritmos.

Em outubro de 2022, a Casa Branca divulgou o projeto da Declaração de Direitos da IA, que, tenta estabelecer que os sistemas de IA devem ser seguros, eficazes, livres de discriminação, respeitar a privacidade dos dados, divulgar seu uso e ter uma extensa estrutura de supervisão humana. Na minha opinião, esta é uma grande tentativa de começo, no entanto, não cobre a questão mais pungente e óbvia: foca no resultado e não no começo. Permita-me explicar: para que um sistema de IA esteja conforme todos os requisitos da Declaração de Direitos da IA, ele deve receber dados primeiro, claro e simples.

Acredito que em 2023 começaremos a ver a proliferação e o amadurecimento de novas metodologias para alimentar dados e testar os resultados dos algoritmos de IA. E, na minha opinião, precisamos pensar nesses algoritmos de maneira semelhante à que pensamos na necessidade humana de terem moralidade e valores, de valorizar a justiça e as boas maneiras. É difícil pensar que eles precisam de uma bússola moral, mas a realidade é que esses algoritmos afetam a vida humana, o que nem sempre é para melhor.

Em colaboração para o futuro

Quando implementamos modelos de IA, precisamos ter etapas, planejamento e design ocorrendo. Essas já são práticas comuns no processo tradicional de desenvolvimento de software. Por que não na IA? Precisamos fazer perguntas como esse modelo se aplica a todas as cores e gêneros? Este modelo foi alimentado com quantidades iguais de dados de amostra que representam justamente as pessoas que ele afetará? Os resultados deste modelo protegem igualmente os direitos dos cidadãos? Este algoritmo tem uma maneira de identificar algo que não deveria dizer?

Em suma, a IA é uma tecnologia mais evoluída do que o software tradicional. Por que não ter uma metodologia de alimentação de dados, teste e monitoramento de resultados que garanta uma bússola moral para nossos algoritmos, assim como Asimov imaginou as três leis básicas da robótica há 80 anos?

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

doze − 9 =

Esse site utiliza o Akismet para reduzir spam. Aprenda como seus dados de comentários são processados.