Em matéria da página Lupa, da UOL, Bruno Bioni, sócio fundador da Bioni Consultoria e Diretor do Data Privacy Brasil comenta em matéria de André Borges sobre a repercussão do uso de inteligência artificial para fins publicitários e tendências regulatórias relacionadas com a tecnologia.
Segundo Borges, em linhas gerais, o PL 2.338 procura estabelecer diferentes níveis de risco atrelados ao uso dos sistemas de inteligência artificial, de forma que, quanto mais sensíveis forem os dados manipulados, mais exigências sejam impostas às empresas que fabricam e que administram esses programas. Nesta classificação, um programa que automatiza a identificação de spams enviados por e-mail, por exemplo, é considerado de “baixo risco” ao usuário. Logo, não há motivos para impor grandes exigências sobre seu fabricante ou gestor. Já um sistema que, em outra situação, faça a triagem automática de milhares de inscrições em um processo seletivo de trabalho, é considerado de “alto risco”, porque pode incluir determinadas regras que prejudiquem uma infinidade de pessoas, sem nenhum tipo de transparência.
“O projeto de lei traz flexibilidade para abordagem a temas de baixo e de alto risco, bem como de eventuais mudanças dessas categorias que possam ocorrer com esses sistemas. É um texto bem aparelhado e formatado porque traz a figura de inteligência de propósito geral”, comenta Bruno Bioni. “Se não fizermos essa regulação agora, vamos ficar para trás. Essa é uma discussão do presente, não é futurista. É assustador pensarmos em como um sistema de inteligência artificial pode, por exemplo, impactar em eleições.” Bioni também fez parte do grupo que, ao longo de nove meses, trabalhou na elaboração do texto que resultou no PL apresentado por Pacheco.
“Se algum tempo atrás havia dúvidas sobre regular ou não o uso dessas tecnologias, esse debate está vencido. A questão não é mais se vamos ou não regular, mas, sim, como faremos isso”, diz Bioni.
Assuntos
Compartilhe