6 de outubro de 2022
Tilt - AI Bill of Rights
O tema pode parecer distante, mas não é. Mexe com a nossa vida. Esta semana, o governo americano publicou o "AI Bill of Rights". O documento busca demarcar os direitos dos seres humanos no desenvolvimento da Inteligência Artificial e o gesto é ainda mais significativo por ser vde um dos países que mais investem nessa área - só em 2021 foram mais de 52 bilhões de dólares em financiamento privado no setor.
Embora o "AI Bill of Rights" seja um bom ponto de partida, a principal crítica é que o documento não é, de fato, uma lei mas apenas um guia para o desenvolvimento de políticas públicas sobre IA e, portanto, não regulamenta de fato a matéria, nem cria estruturas concretas para sua fiscalização e controle.
Seus cinco eixos principais colocam o cidadão no centro. Fizemos aqui um resumo da proposta (usando inteligência artificial para auxiliar na redação, claro!)
Sistemas seguros e efetivos
Você deve estar protegido de sistemas automatizados inseguros ou inefetivos. O desenvolvimento de sistemas automatizados deve se apoiar na consulta às diversas comunidades, para identificar preocupações, riscos e potenciais impactos. Devem passar por testes de segurança e eficácia antes do seu uso e ser monitorados, para garantir sua segurança. Você deve estar protegido contra o uso inadequado ou irrelevante de dados nos sistemas automatizados.
Proteções contra a Discriminação Algorítmica
Você não deve ser discriminado por algoritmos ou sistemas automatizados. Isso inclui medidas que evitem a discriminação com base em características como raça, sexo, religião, idade e deficiência, entre outras. Será exigido que os desenvolvedores de sistemas tomem medidas para garantir que seus sistemas sejam acessíveis para todos e sejam projetados de forma a evitar qualquer discriminação.
Privacidade de Dados
Você deve estar protegido de abusos de coleta de dados, e deve ter controle sobre como esses dados são usados. Você também deve estar protegido de violações de privacidade e os sistemas automatizados devem respeitar as decisões que você toma sobre como esses dados serão usados.
Notificação e explicação
Você deve ser notificado e receber explicações claras sobre como e por que os resultados que te afetam foram determinados pelo sistema. Os sistemas automatizados devem fornecer explicações técnicas válidas, significativas e úteis para você e devem ser calibrados de acordo com o nível de risco baseado no contexto.
Alternativas humanas, consideração e plano de contingência
Você deve ter acesso a uma alternativa humana para sistemas automatizados, sempre que apropriado. A adequação deve ser determinada com base em expectativas razoáveis em um determinado contexto e com foco em garantir um amplo acesso, de modo a proteger o público de impactos especialmente prejudiciais. Em alguns casos, uma alternativa humana ou outra pode ser exigida por lei.
Alguns desses princípios, como o da privacidade de dados e o controle sobre a discriminação algorítmica já estão no radar faz algum tempo e já há inclusive algum arcabouço legal - tanto lá quanto aqui - para lidar com isso. Outros pontos, como a eventual necessidade de uma “alternativa humana” que possa te atender sempre que apropriado, viria a calhar por aqui.
Se você acha que esse é um debate que pertence ainda a um futuro distante, os colunistas propõe um desafio muito simples: ligue para um grande serviço de call-center e veja quanto tempo você leva (se é que consegue) até falar com um atendente humano!
Se por um lado, é importante garantir que essa tecnologia seja desenvolvida e aplicada de forma ética e responsável, para mitigar os diversos riscos associados à essa tecnologia, como o aumento da desigualdade social e a ameaça à privacidade e segurança das pessoas, por outro uma regulamentação mal feita pode ser um entrave para o desenvolvimento, criando obstáculos para o investimento em pesquisas e o desenvolvimento de novas tecnologias além de um ambiente de incerteza jurídica e burocrática que dificulta a aplicação da IA.
A regulamentação pública da IA é uma questão complexa e polêmica e o Estados Unidos não são o único país a enfrentar essa questão. No Brasil, a discussão sobre a regulamentação da IA ainda está em seus primeiros passos. É de 2020 a proposta do PL 21/2020 de autoria do deputado Eduardo Bismarck (PDT-CE), que pretende estabelecer um marco legal do desenvolvimento e uso da Inteligência Artificial. O projeto avançou no Congresso e o relatório da deputada Lusia Canziani (PTB-PR) foi aprovado no mês de setembro. O documento agora segue para o Senado Federal.
A leitura de especialistas no campo é de que o processo ainda precisa amadurecer e que é preciso abrir mais espaços de escuta e colaboração para que o projeto fique mais robusto e adequado aos desafios que se propõe.
A União Europeia está um pouco mais avançada nesse debate e segue em um processo de finalização do “EU AI Act” - um grande projeto guarda-chuva que cria essencialmente três categorias de “riscos” com medidas protetivas diferentes para cada um deles:
Risco Inaceitável
São situações onde o uso de inteligência artificial será proibido. Um exemplo clássico é o ‘score social’ onde os cidadãos recebem uma nota, a partir de análises automatizadas e que ficou famoso em um episódio da série distópica Black Mirror.
Alto Risco
Aplicações que ofereçam algum risco social ou individual, como por exemplo processos de recrutamento ou medicina. Aqui, a proposta é tanto de regras de compliance, auditoria e fiscalização, quanto exigências de transparência e informação do usuário.
Risco Mínimo
Para boa parte das aplicações mundanas de inteligência artificial, a classificação deve ser ‘risco mínimo,’ onde o framework propõe permissão irrestrita, mas oferece algumas guias de conduta e comportamento para que o usuário esteja sempre informado. Aqui, nesta coluna, seguiremos acompanhando o desenvolvimento das tecnologias e das políticas que surgem em decorrência desses novos desafios.
Afinal, o preço da liberdade é a eterna vigilância, para usar uma expressão que muitos atribuem a Thomas Jefferson, mas que na verdade, foi mencionada pela primeira vez por John Philpot Curran, em 1790.