Inteligência Artificial: tipos, vantagens e desafios de uma tecnologia inovadora

No dia 29 de setembro, a Câmara dos Deputados aprovou o Marco Legal da Inteligência Artificial no Brasil, projeto de Lei 21/20, que estabelece princípios, direitos e deveres para o desenvolvimento e a aplicação da inteligência artificial (IA) no país. Agora, o texto seguirá para o Senado. A IA foi o tema principal da 1ª reunião do Comitê de Tecnologia da Associação Brasileira Online to Offline (ABO2O), liderado por Guilherme Kato, CTO do Dr. Consulta, que contou com a participação especial de Luis Gustavo Amaral (Gus), arquiteto de soluções Cloud, AWS e Amazon da Deal Technologies, e Lucas Baião, Senior Big Data and ML Engineer.

 

Durante a apresentação, os especialistas optaram por mostrar os pontos mais polêmicos envolvendo a IA, mas sob um ponto de vista mais técnico. Primeiramente, eles fizeram questão de deixar claro que inteligência artificial não é uma coisa nova. “A gente tem discutido IA como inovação, mas ela surgiu basicamente há 100 anos. Tem algoritmos ligados a estatísticas que podem ser considerados uma inteligência artificial nos anos 1.920 e 1.930”, destacou Lucas. Segundo ele, houve um alvorecer do conceito entre anos 1.950 e 2.000 principalmente pela falta de poderio computacional.

 

Baiao“A gente tem discutido IA como inovação, mas ela surgiu basicamente há 100 anos. Tem algoritmos ligados a estatísticas que podem ser considerados uma inteligência artificial nos anos 1.920 e 1.930”

 

Além de inteligência artificial, ouve-se muito falar em machine learning (ML), que é uma subparte da IA de algoritmos que aprendem com os exemplos apresentados. Já quando se usa um modelo de machine learning que imita o funcionamento de um neurônio se dá o nome de rede neural, enquanto o deep learning utiliza redes neurais artificiais com muitas camadas e complexas, que possibilitam níveis mais complexos de algoritmo de classificação.

 

“Então, são todos subconjuntos, um dentro do outro, e compõe uma ciência que está na intersecção entre a matemática e a Ciência da Computação. Ela tem um pouco de neurociência nos conceitos. Tem alguma coisa neural, de fato? Não. Existe alguma sinapse acontecendo? Nenhuma. Mas o conceito básico, a transformação matemática a qual o modelo passa se assemelha a um método químico que um neurônio aprende”, explicou Lucas.

 

Por ser um conceito maleável, Gus conta que é possível dividir a IA em Strong IA e Weak IA. A primeira foi mais popularizada por meio da ficção e a segunda é a que tem uso mais rotineiro. “A que se vende mais como Strong IA é totalmente consciente, pode tomar decisões próprias e abstrair informações sobre qualquer assunto. Além disso, possui um comportamento específico e pode ´ter algum tipo de controle sobre suas decisões´”, explicou Gus. Já a Weak IA não é um modelo consciente, é uma simulação de um comportamento inteligente a partir de operações matemáticas e depende diretamente dos dados utilizados para o seu treinamento.

 

Gus diz que há debates sobre a possibilidade de chegarmos no Strong IA no futuro, mas alguns proponentes afirmam categoricamente que nunca vamos sair da Weak IA, que ela sempre irá melhorar, mas que é impossível atingir a Strong IA como conhecemos na ficção.

 

IA depende de Dados

 

Segundo Gus, “a qualidade preditiva do algoritmo depende realmente do tipo, da quantidade e da variedade dos dados colocados para eles aprenderem. Um algoritmo de machine learning, do tipo específico de visão computacional, (como uma câmera perceber se um humano está presente) depende da qualidade dos dados que a gente insere para eles aprenderem.” Com uma imagem com lobos em cenários distintos, Gustavo explicou como alguns algoritmos podiam errar a identificação do animal dependendo das fotografias que foram inseridas no sistema. Como as fotos de lobos geralmente têm o animal num contexto de neve, muitos se confundiam quando um cachorro estava nesse contexto. “O jeito que entrou é a maneira como ela aprendeu e isso nos traz para questões de marco legal, de ética, e outras mais humanas”, explicou Gus.

Luis Deal 2

“A qualidade preditiva do algoritmo depende realmente do tipo, da quantidade e da variedade dos dados colocados para eles aprenderem. Um algoritmo de machine learning, do tipo específico de visão computacional, depende exclusivamente da qualidade dos dados que a gente insere para eles.”

 

 

Gus disse que há muitos casos citados como racismo, citando como exemplo a imagem da celebridade Oprah Winfrey, cuja IA identifica a probabilidade de 76.5% de chance de ela ser do sexo masculino. “Pode se esbarrar em questões éticas em relação ao tipo de dado que entrou, mas não em relação ao algoritmo em si”, justificou. Em outra imagem, Michele Obama é descrita como “homem vestindo um chapéu preto”. “Essas duas imagens foram utilizadas por uma matéria da revista Time para mostrar que o comportamento de um modelo de ML poderia ser tendencioso ao racismo, mas obviamente esses erros que o modelo caracteriza são reflexo do dado que entrou”.

 

Absolutamente todos os modelos de machine learning são treinados com imagens retiradas da internet”, complementou Lucas, adicionando que a maioria das imagens de celebridades são, em 80%, pessoas caucasianas, sendo negros e asiáticos a minoria. “Existe algo que precisa ser corrigido com certeza, mas muito provavelmente o que a gente tem que corrigir é a desigualdade no dado, e não no modelo. É a forma como a gente obtém o dado e a forma como a gente treina esses modelos”.

 

O deep fake também é algo que evoluiu muito nos últimos dois anos principalmente e traz inúmeros desafios, entre eles: propriedade intelectual (posso usar a face de um ator falecido? Até quando vai o copy right de uma face humana?), fake News e pós-verdade (se há quem acredite em tudo que lê em formato de texto, imagine em imagens), revenge porn (imagine o nível de trauma que alguém pode sofrer ao ter o seu rosto “inserido” num filme para adultos) e manipulação pública (colocar palavras na boca de algum candidato).

 

Marco Civil

 

GuilhermeSegundo Kato, o texto substitutivo do Marco Civil da IA – que agora seguirá para o Senado – é interessante, não adiciona burocracia, nem insegurança. “Na 1ª versão não havia distinção entre o que era uma aplicação puramente de infraestrutura ou uma de reconhecimento facial”, opinou. Na China, por exemplo, a parte que envolve pessoas é muito regulamentada, enquanto o que diz respeito à infraestrutura é à vontade.

 

“O texto substitutivo do Marco Civil da IA é interessante, não adiciona burocracia, nem insegurança”

 

O fato de poucas empresas terem uma plataforma de IA efetivamente é uma realidade global, não apenas brasileira. Segundo Lucas, isso acontece porque a infraestrutura é muito mais importante do que o modelo executado. “Um cientista de dados passa 20% do tempo criando modelos, os outros 80% são trabalhos de infraestrutura”, disse. O especialista disse que o trabalho por trás da infraestrutura é muito importante e a noção de plataforma é um trabalho que teria ali quatro pilares: uma plataforma para desenvolvimento, ter dado disponível, um processo para colocação disso em produção e, só então, a criação do modelo. “O mundo ainda está trabalhando para chegar nesse ponto um dia. Pouquíssimas empresas teriam conseguido ´produtizar´ internamente colocar isso em produção”, finalizou.

 

Assista à apresentação na íntegra abaixo ou escute o podcast completo aqui.