Bruno Bioni integra, também em 2025, o painel de especialistas na iniciativa Responsible AI, promovida pela MIT Sloan Management Review em parceira com a Boston Consulting Group (BCG).
Iniciando o ano com o foco na responsabilização dos produtores de inteligência artificial de uso geral, o painel sobre IA responsável reuniu acadêmicos e profissionais ao redor do mundo para avaliarem como, e se, os produtores de soluções de inteligência artificial generativa podem ser responsabilizados pela forma como seus produtos são desenvolvidos.
Ao ser consultado, Bruno Bioni avaliou o tema e seus inerentes desafios contribuindo com seus insights a partir de sua experiência no campo da proteção de dados, regulação e inteligência artificial, e comentou a afirmação proposta, de acordo com a dinâmica do painel.
Afirmação: Produtores de IA de uso geral (por exemplo, empresas como DeepSeek, OpenAI, Anthropic) podem ser responsabilizados pela forma como seus produtos são desenvolvidos.
Contribuição do Bruno Bioni: Concorda.
“A inteligência artificial não é uma ferramenta estática, mas sim um sistema dinâmico e adaptável que, ao longo de seu ciclo de vida, pode assumir diferentes características em resposta a intervenções de vários atores. Os chamados modelos fundacionais, que passam por processos de refinamento orientados a objetivos (fine-tuning), ilustram essa complexidade. Nesse contexto, a atribuição de responsabilidade civil aos desenvolvedores de IA não pode ser reduzida a uma abordagem binária ou simplista, especialmente porque diferentes agentes podem exercer graus variados de influência sobre o design e o comportamento do sistema. A responsabilidade deve, em vez disso, ser analisada à luz de princípios como o dever de cuidado, a previsibilidade de riscos e a implementação de salvaguardas técnicas e legais adequadas — uma estrutura de precaução proporcional ao grau de controle e influência que cada ator tem sobre o sistema. Medidas como auditoria algorítmica e transparência nos processos de desenvolvimento são essenciais para fortalecer o escrutínio público e, principalmente, garantir a prevenção, e não a compensação, pelos danos causados pela IA.”
A Responsible AI busca reunir especialistas do mundo inteiro para abordar tópicos relacionados a implementação global da inteligência artificial responsável. A partir de uma dinâmica que consiste na apresentação de uma afirmativa, painelistas selecionados devem concordar ou discordar fundamentadamente. Bruno Bioni, que já participou em outras edições, segue compondo o time de especialistas da iniciativa em 2025.
É possível conferir o conteúdo completo do painel aqui.
Veja também as participações anteriores de Bruno Bioni na iniciativa Responsible AI aqui.
Assuntos
Compartilhe