MIT Sloan Responsible AI – primeiro painel de 2025: How to Hold General-Purpose AI Producers Accountable?

Bruno Bioni integra, também em 2025, o painel de especialistas na iniciativa Responsible AI, promovida pela MIT Sloan Management Review em parceira com a Boston Consulting Group (BCG). 

Iniciando o ano com o foco na responsabilização dos produtores de inteligência artificial de uso geral, o painel sobre IA responsável reuniu acadêmicos e profissionais ao redor do mundo para avaliarem como, e se, os produtores de soluções de inteligência artificial generativa podem ser responsabilizados pela forma como seus produtos são desenvolvidos. 

Ao ser consultado, Bruno Bioni avaliou o tema e seus inerentes desafios contribuindo com seus insights a partir de sua experiência no campo da proteção de dados, regulação e inteligência artificial, e comentou a afirmação proposta, de acordo com a dinâmica do painel.

Afirmação: Produtores de IA de uso geral (por exemplo, empresas como DeepSeek, OpenAI, Anthropic) podem ser responsabilizados pela forma como seus produtos são desenvolvidos.

Contribuição do Bruno Bioni: Concorda.

“A inteligência artificial não é uma ferramenta estática, mas sim um sistema dinâmico e adaptável que, ao longo de seu ciclo de vida, pode assumir diferentes características em resposta a intervenções de vários atores. Os chamados modelos fundacionais, que passam por processos de refinamento orientados a objetivos (fine-tuning), ilustram essa complexidade. Nesse contexto, a atribuição de responsabilidade civil aos desenvolvedores de IA não pode ser reduzida a uma abordagem binária ou simplista, especialmente porque diferentes agentes podem exercer graus variados de influência sobre o design e o comportamento do sistema. A responsabilidade deve, em vez disso, ser analisada à luz de princípios como o dever de cuidado, a previsibilidade de riscos e a implementação de salvaguardas técnicas e legais adequadas — uma estrutura de precaução proporcional ao grau de controle e influência que cada ator tem sobre o sistema. Medidas como auditoria algorítmica e transparência nos processos de desenvolvimento são essenciais para fortalecer o escrutínio público e, principalmente, garantir a prevenção, e não a compensação, pelos danos causados ​​pela IA.”

A Responsible AI busca reunir especialistas do mundo inteiro para abordar tópicos relacionados a implementação global da inteligência artificial responsável. A partir de uma dinâmica que consiste na apresentação de uma afirmativa, painelistas selecionados devem concordar ou discordar fundamentadamente. Bruno Bioni, que já participou em outras edições, segue compondo o time de especialistas da iniciativa em 2025. 

É possível conferir o conteúdo completo do painel aqui.

Veja também as participações anteriores de Bruno Bioni na iniciativa Responsible AI aqui.

 

Assuntos

Compartilhe

O que procura?