Regulamentação da IA: um passo à frente ou uma lavagem ética?

Por trás da lavagem ética da regulamentação da IA.

Embora os apelos por uma nova regulamentação específica da IA ​​tenham um lugar válido como parte da discussão sobre o futuro da IA, eles não devem ocorrer às custas de outros mecanismos que protegem o público, diz Ravit Dotan, defensor responsável da IA ​​na Bria. Leis gerais, como leis de não discriminação, se aplicam à IA e devem ser aplicadas em maior escala o mais rápido possível. Além disso, os pedidos de regulamentação não devem ser usados ​​para passar a responsabilidade para os formuladores de políticas.

As organizações que desenvolvem e implantam IA podem e devem ser proativas para garantir que sua tecnologia seja segura e benéfica, mesmo que a regulamentação e a fiscalização ainda não tenham alcançado a tecnologia.

Sam Altman, CEO da OpenAI, testemunhou em uma audiência judicial do Senado dos EUA sobre a supervisão da IA ​​recentemente, onde defendeu a regulamentação da IA, atraindo atenção significativa da mídia. Embora seja importante incluir pedidos de regulamentação no discurso do AIR, eles não devem prejudicar outros mecanismos que protegem o público.

É crucial aplicar leis gerais, como leis de não discriminação, em uma escala maior para resolver problemas relacionados à IA o mais rápido possível. Além disso, os pedidos de regulamentação não devem ser usados ​​para passar a responsabilidade para os formuladores de políticas. As organizações que desenvolvem e implantam a IA devem tomar medidas proativas para garantir a segurança e os benefícios de sua tecnologia, mesmo quando a regulamentação e a fiscalização forem atualizadas.

Solicita regulamentação como forma de lavagem ética

Pedir regulamentação sem se responsabilizar é um gesto vazio que pode criar uma falsa aparência de responsabilidade. Na audiência, Altman repetidamente pediu que os reguladores interviessem quando os senadores levantassem preocupações. Ele reconheceu que “é importante que as empresas tenham sua própria responsabilidade aqui, não importa o que o Congresso faça”. No entanto, seu silêncio sobre o que a OpenAI faz para se manter responsável sugere o oposto. A recente declaração de segurança de IA da própria empresa sugere transferência de responsabilidade do mesmo tipo.

Embora a declaração da OpenAI aborde tópicos como aprender com exemplos reais, privacidade, proteção de crianças e precisão, ela ignora questões importantes. Por exemplo, a declaração não menciona direitos autorais e propriedade intelectual (PI). Além disso, problemas de preconceito e imparcialidade, observados em experimentos com o ChatGPT, não são mencionados na declaração. A declaração também desconsidera os riscos de plágio e fraude, embora os recursos do ChatGPT tornem as atividades fraudulentas mais acessíveis, abalando setores inteiros. Apesar das estimativas que apontam para essas preocupações, a declaração permanece igualmente omissa sobre os custos ambientais do ChatGPT, como altas emissões de carbono e consumo de água. A lista continua. No final da declaração, a OpenAI dá a entender que seus esforços de segurança podem ser insuficientes. Em vez de lutarem por um padrão mais elevado, eles defendem a regulamentação para evitar que outros tomem atalhos: 

“Embora esperássemos mais de 6 meses para implantar o GPT-4 para entender melhor suas capacidades, benefícios e riscos, às vezes pode ser necessário demorar mais do que isso para melhorar a segurança dos sistemas de IA. Portanto, os formuladores de políticas e os provedores de IA precisarão garantir que o desenvolvimento e a implantação da IA ​​sejam administrados de maneira eficaz em escala global, para que ninguém economize para progredir”.

Empresas do calibre da OpenAI, com seu poder, riqueza e influência, têm a responsabilidade de priorizar a segurança pública em sua tecnologia. Embora a mitigação de riscos seja um esforço coletivo, é inaceitável passar a responsabilidade para os reguladores quando tanto está em jogo. Se a garantia de que seu produto é seguro leva mais de seis meses, leve mais de seis meses antes de lançar uma versão mais avançada.

Desviando a atenção das leis existentes

Além de transferir a responsabilidade para os reguladores, os pedidos de regulamentação da IA ​​também podem desviar a atenção das leis existentes que as empresas podem estar violando.

Leis sobre tópicos como privacidade, direitos autorais e propriedade intelectual recebem alguma atenção, mas são apenas a ponta do iceberg. Leis de não discriminação, por exemplo, são agnósticas em relação à tecnologia; eles proíbem a discriminação independentemente da tecnologia subjacente. As agências federais dos EUA divulgaram declarações que enfatizam esse fato. Os exemplos incluem a recente declaração conjunta por quatro agências federais, FTC, DOJ, CFPB e EEOC, e declarações anteriores da FTC e do CFPB. Os esforços de litígio provam o mesmo ponto. Por exemplo, o Departamento de Justiça processou a Meta (então Facebook) por violar o Fair Housing Act. O DOJ argumentou que a discriminação provocada pelo algoritmo de anúncios da Meta é ilegal. A Meta concordou em mudar seu algoritmo como parte do acordo. Dadas as suposições tendenciosas que faz, o uso comercial do ChatGPT pode levar à violação das leis de não discriminação de maneiras semelhantes.

As leis existentes foram brevemente mencionadas na audiência, mas merecem muito mais atenção. Sem surpresa, as empresas de tecnologia não estão pedindo aos reguladores que as mantenham responsáveis ​​segundo as leis atuais. No entanto, é fundamental priorizar a aplicação das leis existentes em vez de confiar apenas em novos regulamentos; essas leis podem garantir nossa segurança e responsabilizar as empresas de tecnologia com mais rapidez.

Responsabilidade além da regulamentação

Chamadas para criar novas leis específicas de IA podem criar a falsa impressão de que a IA está fora do escopo das leis atuais. Eles também podem perpetuar a narrativa de que as empresas de tecnologia são responsáveis ​​apenas pelo que é legalmente obrigatório.

Não devemos comprar essa narrativa. As empresas de tecnologia assumem a responsabilidade pelos efeitos adversos de sua tecnologia, independentemente de sua legalidade. Como sociedade, podemos exercer pressão sobre essas empresas para cumprirem suas responsabilidades.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

dezoito − 7 =

Esse site utiliza o Akismet para reduzir spam. Aprenda como seus dados de comentários são processados.