À medida que avançam as aplicações da inteligência artificial (IA), crescem também as dúvidas sobre como verdadeiramente se dá o aprendizados das máquinas. Em outras palavras, que caminhos os sistemas inteligentes, que têm a tecnologia de machine learning, percorrem para fazer o que fazem, ou para chegar às conclusões que apresentam.
Esse foi o tema central do painel “Ética e IA: como se planejar para o imprevisível”, que fez parte da edição deste ano da tradicional feira de tecnologia, música e cinema South by Southwest (SxSW), realizada desde 1987 no Texas. Eis a conclusão dos especialistas, de acordo com reportagem do portal SingularityHub: é preciso desenvolver sistemas de IA mais transparentes, compreensíveis e responsáveis.
Ryan Welsh, fundador e diretor da startup de AI Kyndi, destacou três frentes de atuação prioritárias para que os sistemas de inteligência artificial deixem de ser algo incompreensível para a maior parte da sociedade:
• Em primeiro lugar vem a transparência, ou seja, a capacidade de identificar as unidades de maior influência em uma rede de machine learning, assim como os pesos de cada uma dessas unidades e como elas se relacionam com os dados e os resultados obtidos.
• Em seguida, surge a questão da procedência. É preciso saber de onde vêm os dados utilizados. No cenário ideal, um sistema de IA deveria ser capaz de citar, como referência, estudos e artigos criados por seres humanos.
• Por fim, os sistemas de IA devem ser capazes de explicar como funcionam em uma linguagem compreensível para a média dos usuários, com sentenças como: “Cheguei a esse resultado porque x, y, z…”.
“Os seres humanos são únicos em seu desejo e em sua habilidade de perguntar por quê”, afirmou Josh Marcuse, diretor-executivo do Defense Innovation Board, que presta consultoria aos Departamento de Defesa do governo dos Estados Unidos em assuntos relativos à inovação. “Buscamos explicações das pessoas para entender o sistema de crenças delas, para decidir se concordamos com esse sistema e para saber se queremos seguir com aquele diálogo ou trabalho conjunto”, acrescentou.
Os seres humanos nem sempre conseguem explicar claramente suas escolhas, mas pelo menos tentam fazê-lo, de modo a demonstrar seu processo de tomada de decisões. As máquinas capazes de aprender ainda não fazem isso. Portanto, garantem os especialistas, o caminho é trabalhar na identificação dos dados responsáveis por desencadear o processo que leva à decisão pelo sistema de IA, mesmo que o processo e a decisão em si não sejam perfeitos.