INTELIGÊNCIA ARTIFICIAL (IA) E LEIS DA ROBÓTICA
- Flávia Valéria
- 19 de abr. de 2022
- 4 min de leitura
Atualizado: 2 de abr. de 2023

No post anterior, iniciei a abordagem do tema inteligência artificial, situando o tema da perspectiva histórica e conceitual.
Provavelmente você já fez uso de algum dispositivo dotado de inteligência artificial, seja no seu trabalho, ou mesmo nos apps do seu celular. Sim, a inteligência artificial já está entre nós, para além dos círculos científicos, com aplicações diretas na sociedade, mostrando a funcionalidade dos algoritmos e seus riscos potenciais e, alguns, bem concretos.
Os algoritmos já nos acompanham no dia a dia, como os app´s de localização (WAZE ou Google Maps) ou mesmo mecanismos que auxiliam a encontrar as músicas e vídeos que são mais agradáveis de acordo com sua lista de preferência. Já temos IA´s que compuseram músicas, ganharam do melhor enxadrista humano e até mesmo do algoritmo vencedor (como é o caso de AlphaGo Zero, da Google), realizam escolhas judiciais ou mesmo determinam julgamentos.
Com esses exemplos fica claro que nem toda inteligência artificial precisa, para existir, ser revestida de uma forma humanoide, imaginário construído pelos filmes de ficção científica. Nem por isso, a ausência de um corpo físico, ainda que de silício, parecido com um humano, deixa de ser considerada uma IA, com os riscos inerentes, que a regulamentação da IA deve abordar.
Nessa avalanche de desenvolvimento tecnológico e de convívio com inteligências artificiais dos mais variados tipos é de se perguntar sobre a possibilidade de uma delas, vir a causar danos no ser humano. Nesse ponto, Isaac Asimov foi assertivo em tentar enunciar o que seriam consideradas as primeiras leis da robótica.
Nesse passo, considero Isaac Asimov (1920-1992) um dos primeiros futuristas (quando essa atividade ainda não era classificada como carreira como hoje em dia). Russo naturalizado estado-unidense, escritor e bioquímico e um dos maiores escritores de ficção científica e de divulgação de ciência.
🤖Autor da série Fundação e Robôs. Propôs no livro 📖 Eu, 🤖 robô, as 3 leis da robótica:

“1ª lei: Um robô não pode ferir um ser humano ou, por omissão, permitir que um ser humano sofra algum mal.
2ª lei: Um robô deve obedecer às ordens que lhe sejam dadas por seres humanos, exceto nos casos em que tais ordens contrariem a Primeira Lei.
3ª lei: Um robô deve proteger sua própria existência, desde que tal proteção não entre em conflito com a Primeira e Segunda Leis.”
No 📖 livro, Os robôs do amanhecer, enunciou a quarta Lei (LEI ZERO):
“Um robô não pode fazer mal à humanidade e nem, por inação, permitir que ela sofra algum mal”.
Desde a descoberta do fogo (considerado a primeira tecnologia humana), anterior à aquisição da fala (outra tecnologia humana desenvolvida no corpo biológico, levando alguns estudiosos a afirmarem que o ser humano seria uma “tecno espécie”, devido a aquisição de capacidades/habilidades a partir do seu corpo biológico), a humanidade deparou-se com o bom ou mau uso das suas habilidades desenvolvidas/adquiridas, seja no próprio corpo seja com um artefato externo.
O que diga a energia nuclear, descoberta e idealizada para potencializar os recursos energéticos para a humanidade, logo em seguida foi utilizada no seu lado destrutivo, ante a experiência das bombas atômicas, lançadas em Hiroshima e Nagasaki, durante a 2ª Grande Guerra Mundial.
Como qualquer tecnologia, a Inteligência Artificial não é nem boa nem má em essência, mas o uso que pode ser feito por um ente humano, corporação ou mesmo Nação, pode vir a ser danoso ou mesmo letal.
Ainda não há uma tratativa mundial, por países ou lideranças acerca de uma possível regulamentação para as inteligências artificiais. Os debates estão sendo travados por pouquíssimos membros da sociedade civil que lidam com o tema, ou já despertaram para a sua importância; ou mesmo, pelas empresas de tecnologia.
É primordial que o debate sobre ética na programação da IA e sua regulamentação, avance e com cada vez mais segmentos da sociedade civil e, também, dos poderes públicos, entendendo e participando das discussões, ainda mais com a tecnologia de hoje permitindo avanços cada vez mais rápidos.
As próprias empresas de tecnologia têm se preocupado com a questão dos princípios a serem aplicados no desenvolvimento da IA.
Uma delas, a Accenture desenvolveu cinco princípios para a IA, numa versão mais interativa das Três Leis da Robótica de Asimov. São elas:
1) Se uma máquina vai tomar uma decisão, alguém ainda é responsável por ela e há algumas coisas que uma máquina não deve ser permitida a decidir;
2) Um grande debate é se a IA é explicável. Se não for, então não deve ser aplicado a certos domínios ou partes da sociedade;
3) Alguns conjuntos de dados de IA podem ser discriminatórios, embora não intencionalmente. Mas se os dados de certos conjuntos forem tendenciosos, a IA poderá agir de forma injusta. A sociedade deve garantir que a IA não use dados discriminatórios;
4) Os humanos não devem programar jogos com a IA, para fazer coisas que são inapropriadas;
5) Mantenha os humanos informados. Esse é um princípio fundamental para usar a IA com responsabilidade.
Facilmente se percebe o incremento havido no complemento às leis propostas por Asimov, que diga-se de passagem integram apenas o seu pensamento enquanto estudioso das tecnologias, lembrando da necessidade de se ponderar quais caminhos serão escolhidos pela humanidade na condução desse novo saber, chamado inteligência artificial e toda a complexidade que as IA´s cada vez mais adquirem em termos de tecnologia, e seus impactos na sociedade.

Flávia Valéria
Certificada pela Unic em digital currencies.
Mestranda em Blockchain e Criptocurrencies pela University of Nicosia (Institute for the future).
Pós-graduada em Direitos Difusos, Coletivos e Gestão fiscal pela ESMP/MPMA.
Promotora de Justiça no Estado do Maranhão.
Pesquisadora em inovação, futuros, direito e cidadania digital.
Comments