Desenvolvedores criam mandamentos do algoritmo ético contra "desvios" da IA
Algumas linhas de códigos permitiram a desenvolvedores espalhados pelo mundo serem responsáveis pelos algoritmos que organizam e transformam nossas vidas. É por meio dessas sequências que bancos definem quem recebe uma linha de crédito, bem como qual conteúdo vai aparecer na sua linha do tempo. Agora, alguns anos depois de mergulharmos nossa sociedade em algoritmos variados para os mais diversos fins, há um forte movimento que questiona quais os vieses e impactos negativos que essas sequências podem causa
Ao se apresentar durante o South by Southwest, o desenvolvedor mexicano e especialista em machine learning Jesus Ramos elencou uma série de projetos e grupos de trabalho que acreditam em protocolos e códigos de ética claros a serem seguidos por desenvolvedores e engenheiros da computação para a construção de seus códigos.
Para ilustrar essa necessidade, Ramos descreveu os desafios do Revisa Mi Grieta, Esse projeto visava oferecer uma forma fácil e prática para os mexicanos analisarem as trincas de casas e edifícios ocorridas após o terremoto de 19 de setembro de 2017, determinando a partir de fotografias se as rachaduras indicavam algum dano na estrutura. No entanto, ainda que utilizasse uma base de dados de cerca de 600 imagens analisadas por experts da construção civil e arquitetura, a equipe do Revisa Mi Grieta parou para refletir sobre a responsabilidade do algoritmo que estavam criando.
Se tivéssemos um falso positivo, estaríamos fazendo com que uma família buscasse assistência sem que fosse necessário. Da mesma forma, um falso negativo poderia colocar pessoas em risco ao indicar que continuassem frequentando um edifício condenado
Jesus Ramos, desenvolvedor mexicano
É por conta de situações delicadas como essa que ele se dedica a defender que o desenvolvimento de softwares, especialmente aqueles voltados a machine learning e inteligência artificial, tenha uma equipe cada vez mais multidisciplinar. "Precisamos garantir que temos engenheiros trabalhando nas equipes, garantindo que os desenvolvedores façam o controle das versões dos seus algoritmos, mantendo um histórico também dos resultados obtidos através da aplicação dos seus códigos", defendeu Ramos.
Codificadores de ética
Garantir que um combinado de linhas de código leve a resultados éticos e conscientes é uma tarefa multidisciplinar. No Reino Unido, sob a liderança do The Institute for Ethical AI & Machine Learning (Instituto pela Inteligência Artificial e Aprendizado de Máquina Éticos, em tradução livre), profissionais da área técnica, líderes da indústria, formuladores de políticas públicas e professores das áreas de humanas e exatas se reuniram para estabelecer um código de ética para o desenvolvimento de algoritmos. Eles chegaram a oito princípios básicos que oferecem um modelo prático que os profissionais da tecnologia podem utilizar ao desenhar, desenvolver e manter sistemas e algoritmos que aprendam - e tomem decisões - com base em dados.
"Nosso objetivo é minimizar os riscos associados à inteligência artificial (IA) e permitir o seu melhor uso através de modelos que garantam o desenvolvimento ético e consciente de projetos, em diversas indústrias", esclarece o grupo. Os princípios são simples, mas levam a diversas reflexões:
1 - Humanidade aumentada: sugere a reflexão sobre os impactos de predições incorretas, incluindo um humano na revisão dos processos sempre que possível;
2 - Avaliação de vieses: os profissionais devem se dedicar a desenvolver processos que permitam compreender, documentar e monitorar quaisquer vieses dos seus códigos e sistemas;
3 - Explicabilidade: já que uma máquina estará tomando decisões, é preciso ferramentas e processos que sejam transparentes e explicativos sobre as decisões tomadas por esses sistemas;
4 - Operações reproduzíveis: prezar para que seja possível reproduzir os resultados obtidos pelo sistema de machine learning;
5 - Estratégia para lidar com o desemprego: se a automação pode deixar trabalhadores sem função, os desenvolvedores devem se esmerar em identificar e documentar informações que permitam que os negócios que estão sendo afetados possam fazer ajustes para minimizar os impactos entre os trabalhadores que serão dispensados;
6 - Precisão prática: é dever dos desenvolvedores entender quais os impactos práticos que a falta de precisão de seus sistemas pode causar, e estar ciente disso para avaliar a melhor forma de lidar com potenciais imprecisões;
7 - Proteção da privacidade: proteger os dados de serem acessados por lideranças que possam querer interferir com o sistema, seja direta ou indiretamente;
8 - Consciência dos riscos associados aos dados manipulados: cuidar para que processos e infraestrutura garantam a segurança dos dados em uma estrutura que conta com aprendizado de máquina.
Para Ramos, a existência de modelos - ou, como os desenvolvedores gostam de chamar, frameworks - de trabalho que incluam a discussão ética é uma forma de amenizar a dificuldade que os times tem hoje, seja por falta de conhecimento ou de informação, para fazer os questionamentos certos.
"Ao menos no México, os desenvolvedores de machine learning precisam não só de um treinamento matemático mais específico, mas também de treinamento pessoal para poder fazer as perguntas certas: estamos tentando salvar vidas ou estamos tentando impactar o lucro deste negócio? Por isso, nosso time conta não apenas com matemáticos e desenvolvedores, mas também com engenheiros e filósofos", detalha Ramos, demonstrando a multidisciplinaridade do seu time.
ID: {{comments.info.id}}
URL: {{comments.info.url}}
Ocorreu um erro ao carregar os comentários.
Por favor, tente novamente mais tarde.
{{comments.total}} Comentário
{{comments.total}} Comentários
Seja o primeiro a comentar
Essa discussão está encerrada
Não é possivel enviar novos comentários.
Essa área é exclusiva para você, assinante, ler e comentar.
Só assinantes do UOL podem comentar
Ainda não é assinante? Assine já.
Se você já é assinante do UOL, faça seu login.
O autor da mensagem, e não o UOL, é o responsável pelo comentário. Reserve um tempo para ler as Regras de Uso para comentários.