O painel mais recente da iniciativa Responsible AI, promovida pela MIT Sloan Management Review em parceria com o Boston Consulting Group (BCG), reuniu especialistas de todo o mundo para discutir se a supervisão humana pode realmente substituir a necessidade de explicabilidade nos sistemas de inteligência artificial.
Dentre os participantes, Bruno Bioni foi consultado para reagir à seguinte afirmação: “A supervisão humana eficaz reduz a necessidade de explicabilidade em sistemas de IA.”
Discordando veementemente, Bioni destacou que “Explicabilidade e supervisão humana constituem salvaguardas complementares e interseccionais dentro das estruturas de governança de IA. Sua inter-relação, no entanto, não as torna mutuamente exclusivas, nem a presença de uma nega ou diminui a relevância da outra. Pelo contrário, particularmente em contextos de alto risco, esses mecanismos devem ser integrados e se reforçar mutuamente. Nesse sentido, a explicabilidade de um sistema e seus processos de tomada de decisão frequentemente serve como um facilitador para uma supervisão humana eficaz. De fato, a falta de explicabilidade por design pode comprometer gravemente tanto a intervenção humana significativa quanto o que cada vez mais chamamos de devido processo informacional na tomada de decisão automatizada”.
A iniciativa Responsible AI segue promovendo o diálogo global sobre o uso ético da inteligência artificial, reunindo especialistas, gestores e formuladores de políticas para debater temas-chave por meio de uma dinâmica interativa. A participação contínua de nomes como Bruno Bioni reforça o compromisso em construir uma agenda cada vez mais responsável e inclusiva para a IA no cenário internacional.
Para conferir o conteúdo completo do painel, basta acessar aqui.
Veja também as participações anteriores de Bruno Bioni na iniciativa Responsible AI aqui.
Assuntos
Compartilhe