• 15 de janeiro de 2025
  • Mídia

MIT Sloan Responsible AI – Bruno Bioni continuará no painel em 2025

A iniciativa Responsible AI, promovida pela MIT Sloan Management Review em parceria com a Boston Consulting Group (BCG), continuará em 2025, dando sequência às discussões globais sobre práticas, políticas e padrões de inteligência artificial responsável. Bruno Bioni integra o painel de especialistas, contribuindo para o desenvolvimento das atividades na iniciativa de IA.

A Responsible AI explora como organizações em diversos setores e regiões estão definindo abordagens éticas e responsáveis para o desenvolvimento e uso da inteligência artificial. Com base em pesquisas globais e painéis curados com especialistas, a iniciativa busca oferecer insights práticos e aplicáveis frente aos desafios de uma área em rápida evolução.

Bioni tem contribuído com sua experiência no campo da proteção de dados, regulação e inteligência artificial, trazendo uma perspectiva brasileira e do sul global para o debate. A dinâmica apresentada pelo painel consiste em apresentar uma afirmativa em que os painelistas irão concordar ou discordar fundamentadamente, dessa forma, Bruno já apresentou algumas contribuições como as que se seguem:

  • Painel AI-Related Risks Test the Limits of Organizational Risk Management
  • Afirmação: “As organizações estão expandindo suficientemente os recursos de gerenciamento de riscos para lidar com os riscos relacionados à IA.
  • Contribuição do Bruno
  • “Das preocupações ambientais à segurança alimentar, o gerenciamento de riscos é necessariamente um esforço coletivo impulsionado pelo nível de escrutínio público. Apesar de algumas iniciativas importantes de algumas empresas e governos, nossa sociedade continua imatura nesse aspecto. Ainda há uma enorme lacuna em termos de assimetria de informações que está impedindo um gerenciamento de riscos mais eficiente no campo da IA. Estamos combinando leis flexíveis e rígidas para promover mecanismos responsáveis para o gerenciamento de riscos de IA. Das diretrizes da UNESCO à ordem executiva do Presidente Biden e ao projeto de lei brasileiro sobre IA que está sendo analisado, esses esforços defendem, respectivamente, a cooperação internacional para mapear publicamente incidentes de IA, avaliações obrigatórias de impacto algorítmico e o estabelecimento de um banco de dados aberto que catalogue as IAs de alto risco e como elas são avaliadas em termos de mitigação eficaz de riscos. A questão mais urgente é se nós, como sociedade, estamos expandindo democraticamente nossos recursos de gerenciamento de riscos. Portanto, é fundamental qualificar o tipo de gerenciamento de risco que desejamos como sociedade; caso contrário, essa tecnologia pode levar à tecnocracia.”

  • Painel Artificial Intelligence Disclosures Are Key to Customer Trust
  • Afirmação: As empresas devem ser obrigadas a fazer divulgações sobre o uso de IA em seus produtos e ofertas aos clientes.
  • Contribuição do Bruno
  • Concorda plenamente
  • “Como regra, a transparência deve ser vista como uma obrigação fundamental e transversal, independentemente do nível de risco da IA. Ao combinar as leis já existentes (por exemplo, proteção de dados, proteção ao consumidor, leis trabalhistas e assim por diante) com o que foi proposto nas leis rígidas e flexíveis de IA, a transparência é um componente básico para desencadear uma governança eficaz e, assim, evitar a opacidade no desenvolvimento e na adoção dessa tecnologia. Mesmo assim, o nível de informação e a forma como ela é comunicada devem ser sempre contextuais, considerando a relação em jogo. A IA poderia servir para o gerenciamento automatizado de estoques ou para avaliar a elegibilidade para programas de bem-estar, mas os riscos envolvidos e as pessoas que serão afetadas são muito diferentes. Consequentemente, diferentes estratégias de transparência devem ser levadas em conta. Nesse sentido, já existe um nível substancial de aplicação no qual os órgãos reguladores estão exigindo transparência efetiva. Esse qualificador é fundamental; caso contrário, não há responsabilidade, pois não há supervisão.”
  • Painel A Fragmented Landscape Is No Excuse for Global Companies Serious About Responsible AI
  • Afirmação: “Há alinhamento internacional suficiente em relação aos códigos de conduta e padrões emergentes para que as empresas globais implementem efetivamente os requisitos do RAI em toda a organização.”
  • Contribuição do Bruno:
  • Discorda
  • “Embora seja verdade que há iniciativas internacionais notáveis em relação aos códigos de conduta de IA, como as promovidas pelo G7, há também uma fragmentação perceptível na conversa sobre governança global. Da OCDE à UNESCO e à ONU (com seu painel de alto nível sobre IA e o Pacto Digital Global), e estendendo-se ao G20, esses fóruns de políticas multilaterais desempenham um papel fundamental na definição de agendas, na implementação de princípios e na facilitação do compartilhamento de informações. No entanto, esse cenário fragmentado afeta tanto o conteúdo quanto o movimento em direção à convergência global na governança, especialmente na elaboração e aplicação de códigos de conduta de IA. Para resolver isso, o T20 propôs a criação de um D20 – um ponto de coordenação central para discussões sobre governança de dados, um componente fundamental da governança de IA.”

Com a continuidade do programa em 2025, espera-se que a iniciativa amplie ainda mais o diálogo entre especialistas, gestores e formuladores de políticas públicas, consolidando um cenário global mais responsável e inclusivo para o uso da inteligência artificial.

Fiquem atentos aos próximos lançamentos da Responsible AI, que podem ser conferidos no site do MIT Sloan

Assuntos

Compartilhe

O que procura?