Os peritos consideram que a criação de certificados éticos para o software de Inteligência Artificial e o controlo das utilizações que lhes são dadas é hoje uma necessidade.

Em outubro de 2018, o IEEE criou o Programa de Certificação Ética para Sistemas Autónomos e Inteligentes (ECPAIS). O objetivo era criar uma certificação comum para garantir que a Inteligência Artificial utilizada por uma empresa seguisse parâmetros éticos e de segurança.

Globalmente, surgiu uma preocupação quanto aos efeitos dos algoritmos na sociedade, uma vez que influenciam as pessoas e alteram as formas como exercem o poder.


Agora, estão a encorajar os programadores de todo o mundo a utilizarem os critérios de certificação para impulsionar a criação de sistemas fiáveis em ambientes empresariais e de consumo. Alguns dos critérios que delinearam dizem respeito à transparência, à responsabilidade da utilização das contas e à redução do enviesamento algorítmico no desenvolvimento de sistemas autónomos e inteligentes.

Este certificado não é a única coisa que fizeram, lançaram também uma publicação intitulada «Ethically Aligned Design«. Este documento foi criado com a participação de mais de 600 peritos mundiais que descrevem mais de 100 recomendações específicas para orientar a conceção, desenvolvimento, implantação e utilização de sistemas autónomos e inteligentes.

No entanto, não são os únicos que se preocuparam com a questão. Em setembro de 2019, o Fórum Económico Mundial publicou um conjunto de orientações para nortear a contratação de IA, a fim de ajudar os governos a salvaguardar os benefícios e o bem-estar público. No documento, falam de «orientações que se destinam a direcionar todas as partes envolvidas no ciclo de vida dos contratos públicos (responsáveis políticos, responsáveis pela contratação pública, cientistas, fornecedores de tecnologia e respetivos líderes) para o objetivo global de salvaguardar o benefício e o bem-estar do público«.

A Comissão Europeia também não ficou para trás, uma vez que lançou recentemente uma consulta sobre Inteligência Artificial com a publicação de um Livro Branco em 19 de fevereiro de 2020. Esta foi a primeira vez que foi adotada uma abordagem europeia ao assunto. No livro podemos ler que já se fala de certificação, porque diz que «a avaliação da pré-conformidade pode incluir testes, inspeções ou procedimentos de certificação«. Poderá incluir verificações dos algoritmos e conjuntos de dados utilizados na fase de desenvolvimento.

Outras pessoas que se pronunciaram recentemente sobre esta questão

Nos últimos meses, várias pessoas têm feito algum tipo de declaração ou comentário sobre o assunto. Entre eles encontramos Sundar Pichai, CEO da Google, que no início de fevereiro publicou uma carta em que assegurava não ter «dúvidas» sobre a necessidade de regular a Inteligência Artificial.

Mais recentemente, o deputado Iban Garcia del Blanco propôs na Comissão dos Assuntos Jurídicos do Parlamento Europeu, com base no seu relatório sobre os aspetos éticos da inteligência artificial, robótica e tecnologias afins, a necessidade de criar um certificado europeu para produtos tecnológicos, inteligência artificial e robótica, desenvolvido de acordo com princípios éticos.

Mantenha-se informado das notícias mais relevantes em nosso canal Telegram