A Inteligência Artificial (IA) tem capacidade de tomar decisões de forma autônoma. É programada para aprender e refinar sua lógica, mas não é capaz de sentir como os seres humanos. Como então definir limites e responsabilização diante da existência e operação dessas máquinas?

Para discutir essa questão, ajudar os Três Poderes a refletirem sobre o assunto e avaliarem possibilidades de como o direito poderia regular o uso da IA, o Núcleo de Estudos e Pesquisas da Consultoria Legislativa (Nepleg) publicou o artigo Desafios do direito diante dos problemas decorrentes da ascensão da Inteligência Artificial, de autoria do consultor Paulo Roberto Alonso Viegas, doutorando em direito pelo Centro Universitário de Brasília (CEUB).

— Fiz esse trabalho para uma matéria em que pretendia avaliar a IA à luz do Direito Constitucional e o papel do Judiciário, em especial do Supremo Tribunal Federal. A ideia de publicá-lo dentro do Senado seria no intuito de fazer um aceno de que o Legislativo reconhece a importância do Judiciário e de caminharem juntos para oferecerem soluções a questões que podem impactar sobremaneira toda a sociedade — esclarece.

Uma das problematizações apresentadas pelo autor é que, se por um lado o uso de IA tem sido cada vez mais frequente, por outro, o direito é focado no ser humano como agente, portanto pouco efetivo quando se trata dessas tecnologias autônomas. Uma forma de contornar isso seria pela responsabilização, como sugere o trecho a seguir:

“Uma forma de se conseguir maior presença e perenidade na adoção de comportamentos éticos no uso da IA, pelo menos no campo do Direito Civil, remete à adoção de meios efetivos de responsabilização, seja ela objetiva ou subjetiva, em virtude do mau uso da IA (ou pelo seu uso de modo que gere resultados socialmente indesejáveis)”.

O autor também avalia a complexidade dessa responsabilização, uma vez que a autonomia de intervenção varia muito em cada caso. Entre os agentes que poderiam estar envolvidos, cita os proprietários do dispositivo tecnológico, seus gestores ou administradores, programadores ou operadores, até mesmo financiadores de sua implantação, que propiciou os resultados indesejados.

Uma saída apontada, para evitar injustiças na responsabilização, seria contar com a reflexão do Judiciário sobre os casos que se apresentem, que poderia argumentar e construir decisões que garantiriam direitos à sociedade humana, ao mesmo tempo em que não desincentivaria o desenvolvimento dessas tecnologias.

Íntegra do estudo: https://www12.senado.leg.br/publicacoes/estudos-legislativos/tipos-de-estudos/textos-para-discussao/td327