Caríssimos e caríssimas!
A regulação da Inteligência Artificial (IA) está em pauta no mundo inteiro, e iluminar zonas cinzentas tornou-se ação premente para evitar grandes problemas com o avanço dessa tecnologia. A necessidade de regulamentação da IA para evitar a criação de um oligopólio tecnológico já entrou na discussão do órgão regulador do mercado financeiro nos Estados Unidos. Inúmeras são as dúvidas sobre o impacto dessa revolução no mercado de trabalho.
E no Brasil? Estamos prontos para esse debate?
Temos dois convidados especiais para discutir esse tema no Ementário Entrevista de hoje: o professor do Departamento de Economia da Universidade de Brasília e doutor em Engenharia Eletrônica e Computação, Daniel Cajueiro, e a Analista de Planejamento e Orçamento do Ministério do Planejamento e Orçamento e doutora em Economia, Denise Gontijo. A organização do trabalho foi feita pelo Eduardo Paracêncio.
1) Definição de IA
Denise Gontijo – A Inteligência Artificial (IA), conhecida também pelas siglas IA (em português) e AI (em inglês), pode ser entendida como um campo de estudo que busca meios para softwares desempenharem tarefas simples para seres humanos, mas complexas para uma máquina. Um exemplo são as ferramentas de reconhecimento facial, capazes de ler e reconhecer traços faciais. Outros conceitos relacionados são aprendizado de máquinas, redes neurais e algoritmos de IA.
No intuito de esclarecer tais noções e melhor nos situarmos nesta entrevista, prof. Dr. Daniel, poderias discorrer um pouco sobre elas?
Daniel Cajueiro -Antes de considerar explicitamente a definição de conceitos relacionados à inteligência artificial (IA), gostaria de explorar a dificuldade em defini-la, dada sua relevância, especialmente ao se criar legislação que deverá estabelecer regras para o funcionamento de sistemas dependentes dessa tecnologia. A dificuldade em definir IA decorre da generalidade de suas aplicações, o que torna desafiador especificar suas características explícitas. Podemos encontrar sistemas de IA em reconhecimento facial, como você mencionou, mas também em veículos autônomos, sistemas de pontuação de crédito e em programas especializados em jogar xadrez.
A primeira definição conhecida de IA, atribuída a John McCarthy, um dos fundadores da disciplina, descreve IA como “a ciência e a engenharia de criar sistemas inteligentes, especialmente programas de computador inteligentes”. Note que essa definição é dependente do conceito de “inteligência”, que ele define como “a capacidade de alcançar objetivos no mundo”. Do ponto de vista legal, essa definição de IA revela-se inútil, pois se baseia em uma noção extremamente genérica de “alcançar objetivos no mundo”.
Outro tipo de definição comum de IA baseia-se no conhecimento atual que temos sobre sistemas computacionais. Neste contexto, podemos considerar a definição que você mencionou: “um campo de estudo que busca desenvolver softwares capazes de realizar tarefas simples para seres humanos, mas complexas para máquinas”. Esta é uma definição pertinente, pois associa a inteligência ao tipo de atividade que os humanos executam. Contudo, é importante observar que o que é uma tarefa complexa para uma máquina evolui com o tempo. Por exemplo, na década de 80, os programas que emulavam humanos jogando xadrez tinham desempenho limitado, fazendo dessa atividade uma tarefa complexa. Hoje, no entanto, a situação é diferente, existindo vários sistemas que jogam xadrez em níveis superiores aos da maioria dos seres humanos.
A definição de IA na recente regulação aprovada pela União Europeia caracteriza um sistema de IA como “um sistema que é projetado para operar com diferentes níveis de autonomia e que pode mostrar adaptabilidade após a implantação, e que, para objetivos explícitos ou implícitos, infere, a partir da entrada que recebe, como gerar saídas como previsões, conteúdo, recomendações ou decisões que podem influenciar ambientes físicos ou virtuais.” Note que, nesse caso, IA foi definida de forma extremamente generalista para abranger todas as aplicações que utilizam essa tecnologia. Entretanto, essa abrangência pode incluir também algoritmos estatísticos simples, que geralmente não são considerados por muitos especialistas como sistemas de IA propriamente ditos.
Não existe uma definição de IA que seja universalmente aceita, e este parece ser um problema fundamental para qualquer proposta de regulação generalista de IA. Se não conseguimos definir claramente o que é IA, como podemos determinar o escopo da regulação?
Embora haja dificuldades em cunhar uma definição precisa de IA, a maioria das fontes considera a Aprendizagem de Máquinas (AM) um subcampo da IA. AM é uma área da ciência que envolve o desenvolvimento de algoritmos que permitem aos computadores aprender a partir de dados e melhorar seu desempenho ao longo do tempo sem serem explicitamente programados para cada tarefa específica. É válido mencionar que AM é apenas um dos subcampos da IA, que também inclui modelos como sistemas especialistas, que são são programas de computador projetados para simular o julgamento e o comportamento de um humano ou de um grupo de humanos com experiência em uma área específica usando regras pré-definidas, e algoritmos de busca, que são métodos computacionais que exploram sistematicamente as opções disponíveis em um problema para encontrar uma solução desejada.”
Redes neurais artificiais são modelos matemáticos de processamento paralelo de informação, inspirados nos sistemas nervosos de humanos e animais. Elas formam uma classe importante de modelos dentro do subcampo da AM.
Algoritmos de IA são procedimentos ou receitas computacionais projetadas para simular capacidades humanas em máquinas. Uma classe importante desses algoritmos é a dos algoritmos de AM, que permitem que computadores aprendam a partir de dados. Recentemente, tem havido muita discussão sobre o papel desses algoritmos em comportamentos inesperados que sistemas de IA podem exibir, como a perpetuação de vieses presentes nos dados, sugerindo que esses algoritmos funcionam como caixas pretas. De fato, os algoritmos de AM consistem em sequências precisas e sistemáticas de passos para estimar parâmetros ou resolver problemas baseados em dados.
Como a estrutura do modelo e os parâmetros aprendidos são diretamente influenciados pelos dados, o modelo pode ser visto como um reflexo das características, vieses e sutilezas do conjunto de dados. Assim, enquanto os próprios algoritmos operam por meio de um processo claro e bem definido, o resultado desses processos, o modelo, é inerentemente moldado pelo conjunto de dados.
2) Áreas de maiores impactos de IA
DG -Reconhecimento de imagens e de fala, chatbots (ou “robôs de bate-papo”), assistentes de voz, veículos autônomos, automação em processos da indústria, tomada de decisão aprimorada a partir da análise de dados em larga escala, indicações de produtos e serviços personalizados, são exemplos de aplicações de IA que podem melhorar a eficiência operacional, aumentar a qualidade e reduzir custos nos setores da economia. No setor financeiro, por exemplo, os processos de análise de dados e de detecção de fraudes foram otimizados, a partir do uso de IA, permitindo aprimoramento de auditorias e tomada de decisões qualificada. Nesse sentido, quais seriam as áreas ou setores que podem ter os maiores impactos com a aplicação de tecnologias IA?
DC – Como você mencionou, existem exemplos de aplicações importantes e bem-sucedidas de IA em quase todas as áreas da indústria e do governo, que já aumentaram a produtividade e reduziram custos. Estas são possivelmente as aplicações mais conhecidas, pois aparecem corriqueiramente no nosso dia a dia. No entanto, há também outras aplicações de IA menos conhecidas, que não só reduzem custos e aumentam a produtividade em várias tarefas, mas também, devido à capacidade limitada dos humanos de processar grandes volumes de dados, estão trazendo ou vão trazer impactos significativos para a sociedade ao descobrir conexões anteriormente desconhecidas nos dados. Dentre elas, gostaria de citar o processo de descoberta de novas drogas, que se tornou possível pela previsão acurada da interação entre diferentes compostos químicos, o desenvolvimento de medicina personalizada baseado na capacidade da IA de prever relações entre marcadores genéticos e doenças, a descoberta de novas galáxias, que depende da análise de imagens de telescópios para identificar objetos celestiais, a revelação de novos sítios arqueológicos através do processamento de imagens de satélites e radares, e a descoberta de novos materiais com propriedades específicas, resultado do mapeamento de compostos químicos em propriedades.
3) Riscos de aplicações dessa tecnologia
DG – À medida que a utilização dessa tecnologia se torna mais expressiva, surge o que se pode chamar de lacuna de confiança, entendida como um conjunto de riscos, percebidos e reais, associados à IA. Se considerarmos o tipo de aplicação de IA, alguns riscos podem ser críticos, envolvendo por exemplo aspectos sociais éticos e morais, além de aspectos econômicos, como em relação à IA generativa — ferramenta capaz de criar conteúdos textuais ou audiovisuais a partir de uma base de dados existente. Nesse sentido, quais seriam os principais riscos associados à IA e como impactam na confiança relacionada à utilização dessa tecnologia?
DC – Assim como ocorre com o uso extensivo de qualquer nova tecnologia, a IA traz simultaneamente impactos muito positivos, mas também riscos que precisam ser compreendidos e enfrentados.
Identifico dois grupos diferentes de riscos associados ao uso da IA. O primeiro grupo inclui riscos que são consequências diretas dos algoritmos computacionais usados na implementação de IA. O segundo grupo de riscos decorre da maneira como a IA é aplicada dentro das sociedades, e não são necessariamente inerentes aos algoritmos de IA.
No primeiro grupo, destacam-se três riscos principais: a perda de privacidade dos dados, a perpetuação de vieses presentes nos dados, e a falta de interpretabilidade ou explicabilidade dos modelos. Esses riscos são comumente observados em modelos advindos da área de AM.
Em relação à perda de privacidade dos dados, existem dois riscos específicos. O primeiro diz respeito aos próprios dados. Uma vez coletados, eles podem comprometer a privacidade dos indivíduos cujas características estão incluídas nesses dados. O segundo risco surge após a estimativa dos modelos de IA. Em alguns casos, é possível recuperar dados de indivíduos a partir das previsões feitas pelos modelos já estimados.
Sobre a criação de modelos que perpetuam vieses sociais, existem dois tipos específicos de riscos. O primeiro tipo está relacionado ao fato de que um modelo de previsão em AM pode fornecer resultados que são indevidamente correlacionados com raça ou gênero. Por exemplo, um modelo destinado a classificar indivíduos aptos para uma tarefa específica pode acabar selecionando preferencialmente indivíduos de uma determinada raça ou gênero. O segundo tipo de risco está relacionado à imprecisão diferencial entre grupos: em modelos utilizados para identificar imagens de pessoas que cometeram crimes, por exemplo, se a base de dados para treinamento contém mais imagens de uma raça do que de outra, a identificação de indivíduos da raça menos representada será menos precisa.
A falta de interpretabilidade e explicabilidade dos modelos está relacionada ao fato de que modelos de AM frequentemente buscam construir relações complexas entre as características das observações e as previsões associadas, que podem ser de difícil compreensão. Interpretabilidade refere-se à capacidade de entender diretamente a estrutura do modelo e as relações de saída, enquanto explicabilidade envolve o uso de métodos externos para explicitar como as entradas são transformadas em saídas. Por exemplo, no modelo que mencionamos anteriormente, usado para selecionar indivíduos para uma tarefa específica, um indivíduo não selecionado pode solicitar explicações para essa decisão, mas o modelo pode não fornecer informações suficientes devido à sua complexidade. Um problema ainda mais sério ocorre quando um modelo, percebido pelos seus resultados, favorece indivíduos de um determinado gênero e não se consegue entender por que isso está ocorrendo.
Em relação ao segundo grupo de riscos, ou seja, aqueles associados à aplicação de IA na sociedade, podemos citar exemplos significativos. Esses incluem os riscos à vida humana, como os apresentados por armas autônomas e veículos autônomos; os impactos da IA no mercado de trabalho; os efeitos nos mercados financeiros; violações de direitos autorais; manipulação social; vigilância social; e uma crescente dependência de IA.
As armas autônomas são sistemas equipados com IA que podem selecionar e alvejar alvos sem intervenção humana direta. Embora possam aumentar a eficiência e reduzir baixas entre combatentes ao minimizar a exposição humana em ambientes de combate, elas também apresentam riscos significativos à vida humana, incluindo a possibilidade de falhas no algoritmo ou erros de identificação que podem resultar em baixas civis não intencionais. Além disso, a autonomia das armas pode ser explorada de maneira maliciosa ou resultar em escaladas não controladas em conflitos armados. A dificuldade de atribuir responsabilidade moral e legal (quem é responsável pelas ações tomadas por um sistema autônomo, especialmente em casos de danos não intencionais ou decisões erradas que resultam em perda de vidas humanas) complica ainda mais o debate ético e legal sobre o seu uso. Por todos esses motivos, muitos países estão banindo o seu uso.
Veículos autônomos, ou seja, veículos que operam sem intervenção humana, oferecem vantagens como operação eficiente, redução de custos e aumento de produtividade nos sistemas de transporte. No entanto, eles também podem oferecer risco a vida humana e também apresentam desafios significativos em relação à atribuição de responsabilidade moral e legal em caso de acidentes. Esses desafios incluem a determinação de quem deve ser responsabilizado quando um veículo autônomo causa danos, seja o fabricante do sistema, os programadores, ou até mesmo os usuários que os operam.
Todas as revoluções tecnológicas tiveram impactos significativos no mercado de trabalho. No entanto, a atual revolução da IA se destaca por seu alcance: ao contrário de revoluções anteriores, que geralmente afetavam principalmente trabalhadores com menor qualificação, a IA impacta uma gama mais ampla de empregos, incluindo aqueles que requerem níveis elevados de escolaridade. Entretanto, é importante notar que novos postos de trabalho surgirão e também observaremos muitos exemplos de aumento de produtividade entre trabalhadores que passarão a utilizar ferramentas de IA.
Algoritmos de comercialização de ativos baseados em IA são bastante comuns em mercados financeiros atualmente. Capazes de executar milhares de transações por minuto, esses algoritmos podem induzir quedas súbitas e provocar extrema volatilidade no mercado.
Existem vários riscos associados à violação de direitos autorais no uso de IA. O primeiro, e mais óbvio, envolve a estimação de modelos de IA com dados protegidos por direitos autorais. Embora os modelos de IA não reproduzam exatamente o conteúdo original, o uso desses dados pode infringir os direitos autorais se replicarem padrões contidos nesses dados. Um segundo risco diz respeito à incerteza sobre a titularidade dos direitos autorais de conteúdos gerados por IA, que pode pertencer ao criador do modelo, ao usuário ou a nenhum dos dois. Uma terceira questão relaciona-se à rastreabilidade do conteúdo, levando alguns sistemas de IA a considerar a inclusão de marcas d’água para facilitar a identificação do conteúdo gerado.
Modelos de IA podem ser usados para manipulação social pelo menos de duas formas. A primeira é através da criação e disseminação de conteúdo falso, como textos, imagens e perfis falsos em plataformas digitais. A segunda forma envolve o uso de dados sobre comportamentos e preferências dos indivíduos para compartilhar informações estrategicamente selecionadas, com o objetivo de alterar suas preferências políticas ou comportamento geral.
A IA pode ser usada por governos autoritários para vigilância social, com implicações profundas para a privacidade e liberdade individual. Um exemplo disso é o uso extensivo de tecnologia de reconhecimento facial na China. Além de rastrear os movimentos das pessoas no trabalho ou na escola, o governo chinês pode compilar dados suficientes para monitorar as atividades, as relações sociais e as visões políticas dos cidadãos. Outro exemplo preocupante é o emprego de IA para prever a intenção de cometer crimes, uma prática que pode levar à punição de indivíduos mesmo antes de qualquer crime ser efetivamente cometido.
A dependência de IA é outro risco relevante, especialmente no contexto de como ele pode contribuir para uma diminuição no exercício de habilidades tipicamente humanas e, eventualmente, levar a uma certa preguiça intelectual. Vale ressaltar que essa não é uma consequência exclusiva do desenvolvimento de IA, mas sim de avanços tecnológicos em geral. Historicamente, por exemplo, deixamos de realizar cálculos mentais simples com a chegada das calculadoras. Hoje, mesmo cálculos triviais são frequentemente delegados a esses dispositivos. Contudo, é importante notar que, apesar da existência das calculadoras, o ensino de matemática fundamental continua sendo essencial na educação das crianças e elas continuam aprendendo a fazer contas, o que é extremamente positivo. Baseando-se nisso, devemos permanecer vigilantes quanto aos impactos potenciais que a IA pode ter na educação, garantindo que as tecnologias complementem, e não substituam, o desenvolvimento de habilidades importantes e tipicamente humanas.
4) Formas de lidar com esses riscos
DG – A criticidade dos riscos associados à IA pode afetar diretamente a política de adoção de aplicações dessa tecnologia, particularmente, das mais sensíveis como por exemplo as relacionadas aos cuidados de saúde, às finanças, aos transportes ou à segurança nacional. Tendo em conta, entretanto, os atributos positivos da utilização de IA e seu patente progresso, o que podemos considerar como formas de lidar com esses riscos?
DC – Entender e enfrentar os riscos associados à implementação de IA é fundamental para qualquer política de adoção dessas tecnologias. Em resposta à sua pergunta, vou focar nos riscos inerentes aos algoritmos de IA, pois estes são universais e independem do contexto cultural ou legal. Os riscos relacionados à aplicação de IA, por outro lado, variam significativamente de acordo com a cultura e a legislação específicas de cada local onde a IA é implementada.
Considere, por exemplo, o campo da saúde que você mencionou e um sistema de previsão que seleciona indivíduos para receber um determinado tipo de tratamento. Se os dados usados para estimar o modelo são históricos e refletem um período em que indivíduos de uma determinada raça tinham menos acesso à saúde, isso pode resultar em um viés que privilegia os indivíduos da outra raça que historicamente já tinha melhor acesso. Além disso, a complexidade do modelo pode impedir a compreensão de como ele chega a esses resultados, tornando-o totalmente inadequado para qualquer política de saúde. Um exemplo similar pode ser observado no setor financeiro, onde um modelo que decide sobre a concessão de crédito pode favorecer um grupo historicamente mais bancarizado. Da mesma forma, um modelo usado para determinar quem deve ser revistado em um aeroporto, baseando-se apenas em atributos físicos, poderia exibir vieses semelhantes. Por outro lado, um modelo de transporte que prevê as rotas mais utilizadas em determinados horários poderia aumentar a eficiência regional, mas também revelar dados sensíveis sobre os locais onde as pessoas trabalham e residem, podendo ser explorados para atividades criminosas.
Os modelos discutidos, associados a políticas de saúde, concessão de crédito e segurança nacional, destacam riscos significativos que podem surgir quando modelos de IA perpetuam vieses presentes nos dados e são complexos demais para serem compreendidos. Por outro lado, o modelo de transporte ilustra preocupações relativas à privacidade dos dados. Felizmente, a boa notícia é que esses riscos, especificamente relacionados à implementação de AM, têm sido objeto de estudo por cientistas da computação há algum tempo. Hoje, existem diversas estratégias propostas para mitigar esses riscos, incluindo o aprimoramento de técnicas de transparência e justiça nos algoritmos, bem como medidas robustas de proteção de dados.
Uma abordagem eficaz para mitigar o risco de vazamento de dados sensíveis é a Privacidade Diferencial, uma técnica matemática que minimiza a contribuição dos dados de cada indivíduo específico na qualidade do modelo de AM que se deseja estimar. A técnica consiste em adicionar ruído aos dados de modo que se reduzam os riscos associados à revelação de informações sensíveis, enquanto ainda se extrai informação útil.
Por exemplo, suponha que se deseja realizar uma pesquisa na Universidade de Brasília para descobrir a proporção de alunos que usam algum tipo de droga ilícita. Poderíamos desenvolver um site onde cada aluno responde, através de sua matrícula, se “consome corriqueiramente algum tipo de droga ilícita”. No entanto, um algoritmo no site carrega a resposta real do aluno com 80% de chance, e nos outros 20% das vezes, ele aleatoriza a resposta. Assim, mesmo que a base de dados com as respostas seja comprometida, não será possível confirmar se uma resposta específica é verdadeira. No entanto, conhecendo o padrão de ruído introduzido, é possível recuperar estatisticamente a proporção de alunos usuários de drogas ilícitas. Embora essa metodologia requeira um maior número de observações para alcançar o mesmo nível de precisão estatística, esse custo é consideravelmente menor do que os riscos associados ao vazamento de dados. Essa solução já é empregada por grandes empresas para proteger dados sensíveis de seus usuários.
Lidar com a criação de modelos de AM que perpetuam vieses presentes nos dados não é uma tarefa simples. Geralmente, os modelos de AM são desenvolvidos com o objetivo de maximizar alguma medida de acurácia. Contudo, se os dados originais contêm vieses, os modelos estimados inevitavelmente refletirão esses vieses. A solução comum de remover variáveis como raça ou gênero pode parecer útil, mas na maioria dos casos é insuficiente. Por exemplo, em um modelo usado para selecionar estudantes para uma universidade, se a raça está correlacionada com a renda familiar e, consequentemente, com o acesso a uma educação de qualidade, simplesmente ignorar a raça pode perpetuar desigualdades.
Considere uma situação hipotética com candidatos de duas raças, ‘ouro’ e ‘prata’. Os candidatos ‘ouro’, geralmente mais ricos, podem ter tido melhor acesso à educação e, por isso, tendem a se sair melhor nos testes de admissão. Entretanto, um candidato ‘prata’ com nota 7 pode ter mais potencial de aprendizado do que um ‘ouro’ com nota 8. Assim, eliminar a variável raça dos dados pode resultar em uma solução menos justa do que ajustar os limiares de admissão para cada raça, buscando equilibrar as oportunidades de acesso à universidade. Dessa forma, as soluções mais eficazes atualmente para resolver o problema de estimação de modelos que dependem de dados que reproduzem vieses da sociedade envolvem ajustar o modelo para alcançar a paridade estatística, além de focar apenas na acurácia. No exemplo da seleção universitária, isso poderia significar garantir que uma proporção igual de estudantes de ambas as raças seja selecionada. Embora isso possa diminuir a acurácia geral do modelo, introduz um critério de equidade importante. Cabe ao gestor responsável pela seleção dos alunos decidir a relevância de cada critério na seleção.
Quanto à questão da interpretabilidade e explicabilidade em modelos de AM, é relevante destacar que apenas os modelos mais simples, que tendem a aprender relações menos complexas, são interpretáveis. No entanto, eles raramente são escolhidos devido à sua capacidade limitada de capturar detalhes nos dados. Por outro lado, existem várias técnicas avançadas disponíveis para explicar os resultados de modelos mais complexos. Uma dessas técnicas é a Importância por Permutação. Esta técnica envolve a alteração aleatória dos valores de uma característica específica no conjunto de dados de teste e a observação do impacto dessa mudança no desempenho do modelo.
Se o desempenho do modelo diminuir significativamente após a permutação dos valores de uma característica, isso sugere que a característica tem um papel importante nas previsões do modelo. Essa abordagem explicita quais atributos são mais influentes na determinação dos resultados do modelo, ajudando a mitigar críticas de que os modelos mais complexos são “caixas-pretas”.
5) Papel do estado na regulação/regulamentação de IA
DG – Considerando os riscos e o potencial dos benefícios advindos com a aplicação dessa tecnologia, é fácil perceber a importância da criação de um marco regulatório para a IA que permita equilibrar a garantia da proteção de direitos com os avanços tecnológicos. Em vista disso, considerando questões éticas, sociais, econômicas e de segurança social, qual seria, em seu entendimento, o papel do Estado na regulação da IA?
DC – Como você mencionou, é fundamental que a regulação de atividades de alta tecnologia, especialmente a da IA, encontre um equilíbrio entre segurança e inovação. Além de mitigar riscos, a regulação da IA deve também promover o desenvolvimento de tecnologias éticas e sustentar a confiança do público na inovação.
De fato, muitas vezes é mais fácil identificar o que o Estado não deve fazer do que definir o que ele deve fazer.
Portanto, gostaria de esclarecer inicialmente o que, em minha opinião, não deveria ser o papel do Estado. O Estado não deve simplesmente importar e ajustar propostas de regulações de outros países, pois essas podem não ser adequadas às especificidades nacionais. Além disso, não é aconselhável adotar uma regulação que defina explicitamente o que é legal ou não, punindo rigorosamente quem não segue a risca a regulamentação. Isso porque tal abordagem enfrenta diversos desafios: Primeiro, é difícil, se não impossível, definir precisamente o escopo da regulação de IA devido à sua complexidade e generalidade. Segundo, uma regulação rígida dificilmente conseguiria acompanhar os avanços tecnológicos e, em vez de incentivar a eficiência e a inovação, poderia levar as empresas a apenas seguir padrões. Terceiro, essa abordagem regulatória poderia excluir pequenas empresas do mercado devido à dificuldade em cumprir com a legislação, aumentar os custos para novas empresas a ponto de impedir sua entrada no mercado, fomentando monopólios, e, consequentemente, aumentar o custo dos produtos para os consumidores, sem oferecer benefícios claros.
Para esclarecer o papel do Estado na regulação de IA, vou detalhar como penso que deve ser um arcabouço de regulação de IA. Defendo uma regulação de IA que seja baseada em inovação e adaptada setorialmente, orientando o desenvolvimento da tecnologia de maneira a ser primeiramente avaliada no âmbito jurídico por seus erros através da responsabilidade subjetiva. Um princípio central desta abordagem regulatória focada em inovação é o estabelecimento de diretrizes claras e acionáveis, destinadas a promover o bem-estar social e a identificar e mitigar riscos que possam desviar desses princípios. A regulação setorial é moldada especificamente para atender às necessidades e características únicas de cada setor ou indústria, garantindo que as normas abordem diretamente as questões mais pertinentes, as tecnologias envolvidas e as práticas comerciais de cada área. Diferentemente da responsabilidade objetiva, que exige apenas a demonstração da relação de causalidade entre a conduta e o dano para obrigar a reparação, a responsabilidade subjetiva exige a comprovação de culpa ou dolo do agente causador do dano. Esta abordagem não só enfatiza a importância da intenção e do comportamento nas avaliações legais, mas também promove um ambiente mais propício à inovação, pois incentiva as empresas a desenvolverem práticas de IA de maneira responsável, sem o peso de serem automaticamente penalizadas por falhas não intencionais.
Nesse contexto, o papel do Estado no desenvolvimento de IA pode ser moldar um ambiente regulatório baseado na conformidade de soft laws, que reflitam os desejos da sociedade. Soft laws, definidas como princípios não vinculativos que se espera que as empresas desenvolvedoras de IA sigam, oferecem flexibilidade e adaptabilidade às rápidas mudanças tecnológicas. No entanto, garantir a conformidade das empresas com esses princípios pode ser desafiador. Para enfrentar esse desafio, medidas tanto internas quanto externas as empresas desenvolvedoras de IA são fundamentais. Internamente, a atuação dos conselhos de administração, comitês de ética e ouvidorias desempenha um papel crucial na supervisão e na fiscalização das práticas corporativas. Externamente, a fiscalização pode ser exercida através da cadeia de suprimentos, de auditorias e certificações de conformidade, do papel desempenhado por seguradoras e de agências de financiamento, que podem incentivar a aderência aos princípios por meio de políticas de gerenciamento de riscos e passivos.
Em relação ao controle interno, os conselhos de administração, comitês de ética e ouvidorias são responsáveis pela criação e monitoramento de documentos internos que estabelecem princípios a serem seguidos. Os conselhos de administração, em particular, estão atentos à reputação da empresa e aos potenciais passivos que podem surgir caso esses princípios não sejam adequadamente seguidos.
Em relação ao controle externo, a cadeia de suprimentos é importante porque os clientes podem decidir comprar produtos apenas se estes estiverem em conformidade com os princípios éticos e regulatórios desejados. Este mecanismo de mercado efetivamente incentiva as empresas a adotar práticas responsáveis para manter sua competitividade e reputação. Além disso, o Estado também tem um papel relevante neste contexto, uma vez que é um grande consumidor de produtos e serviços no país. Através de suas políticas de aquisição, o Estado pode impor padrões rigorosos de conformidade, exigindo que as empresas cumpram certos critérios éticos antes de serem elegíveis para contratos públicos.
O Estado, através de suas agências reguladoras, pode autorizar e supervisar empresas ou instituições de pesquisa especializadas interessadas em auditar e certificar sistemas de IA em setores específicos. Essa atuação regulatória é crucial, pois a auditoria e a certificação de sistemas de IA são requisitos essenciais para assegurar que, em casos de falhas ou mau funcionamento desses sistemas, o tratamento jurídico seja conduzido eficientemente sob o âmbito da responsabilidade subjetiva. Isso significa que, se um sistema certificado falhar, a investigação sobre a culpa ou o dolo por trás do incidente será facilitada pelo histórico de conformidade demonstrado pelas auditorias. Além disso, para sistemas de IA que possam representar riscos à vida humana, as instituições autorizadas a atuar na certificação e auditoria desses sistemas poderiam implementar testes controlados em ambientes de simulação, conhecidos como “sandboxes”. Esses testes permitem uma avaliação segura e detalhada das funcionalidades do sistema em condições controladas antes de sua implementação completa, minimizando riscos potenciais.
As seguradoras podem influenciar significativamente as práticas de desenvolvimento de IA por meio da estruturação de suas políticas de seguros. Elas podem estabelecer prêmios mais altos para cobrir produtos de IA que não sigam rigorosamente determinados princípios éticos e de segurança, incentivando assim as empresas a adotarem melhores práticas para evitar custos proibitivos. Paralelamente, agências de financiamento, como bancos e agências governamentais de pesquisa que representam também o Estado, têm a capacidade de moldar o desenvolvimento da IA, optando por financiar apenas aqueles projetos que demonstram altos padrões de segurança e responsabilidade.
Um aspecto importante a considerar no desenvolvimento de produtos baseados em IA é o risco significativo de passivos legais que podem surgir se esses produtos não aderirem aos princípios éticos e de segurança estabelecidos. Embora a tendência seja propor novas legislações sempre que uma nova tecnologia surge, muitas das leis existentes já oferecem cobertura para diversos problemas que podem emergir com essas inovações. Além disso, os tribunais, também representando o estado, podem aplicar penalidades severas a empresas que negligenciam a obtenção das certificações de segurança necessárias para seus produtos.
6) Regulação de IA no mundo: principais exemplos
DG – Ao passo que avança a nova tecnologia e suas aplicações, os países são desafiados a propor uma interpretação complexa sobre a garantia de direitos e seu posicionamento no contexto geopolítico de desenvolvimento tecnológico. Nesse cenário, potências como os Estados Unidos e a União Europeia lançaram esforços para a regulação dessa tecnologia, apresentando abordagens distintas, particularmente, quanto ao desenho da governança em suas propostas de regulamento. À vista disso, poderias comentar os esforços de regulamentação de IA a partir da experiência internacional?
DC – A União Europeia (UE) adotou uma abordagem regulatória para a IA que é notável tanto pela sua abrangência na definição de IA quanto pela restritividade das obrigações impostas às empresas. Diferentemente de abordagens que favorecem a segmentação setorial, a regulamentação da UE adota um modelo generalista, baseando-se em uma definição extremamente inclusiva de IA, que potencialmente engloba uma vasta gama de sistemas. Essa abordagem classifica os sistemas de IA de acordo com o nível de risco que apresentam, estabelecendo exigências rigorosas para o desenvolvimento e a implementação desses sistemas conforme o grau de risco identificado. Este método busca assegurar que as aplicações de IA sejam introduzidas de maneira segura e eficaz, em alinhamento com os princípios regulatórios estabelecidos pela União Europeia. Entretanto, essa abordagem regulatória pode ter consequências indesejadas para o desenvolvimento e a inovação em IA, especialmente porque as exigências impostas podem ser particularmente onerosas para startups e pequenas empresas. Isso não só aumenta as barreiras à entrada no mercado, mas também favorece a formação de monopólios, pois grandes empresas com mais recursos são capazes de navegar mais facilmente no ambiente regulatório.
Assim como a União Europeia, a China também defende o desenvolvimento ético da IA, mas adota uma regulamentação mais fragmentada, específica e iterativa. Em vez de estabelecer uma definição abrangente ou setorial de IA, a abordagem chinesa é orientada por análises caso a caso. Para regulamentar efetivamente a IA, a China exige o licenciamento para sistemas de IA que possam representar ameaças significativas à população e a criação de um órgão regulador específico para monitorar o desenvolvimento de sistemas de IA. A legislação chinesa é caracterizada por sua grande flexibilidade, permitindo adaptações rápidas às necessidades emergentes, o que a confere uma agilidade e adaptabilidade superior em comparação com a europeia. Este método possibilita uma resposta mais eficiente e direcionada aos desafios apresentados pelos avanços em IA. No entanto, essa abordagem também enfrenta desafios significativos, especialmente no que diz respeito à consistência e uniformidade na aplicação das leis, que podem variar muito de um caso para outro. Embora a flexibilidade regulatória permita rápidas adaptações, ela pode também resultar em uma falta de previsibilidade, crucial para o planejamento estratégico a longo prazo das empresas de tecnologia. Esse equilíbrio entre flexibilidade e previsibilidade é fundamental para garantir que a regulamentação não apenas acompanhe o ritmo da inovação, mas também ofereça um ambiente estável e confiável para o desenvolvimento tecnológico.
A regulação de IA nos Estados Unidos parece estar um pouco atrasada em comparação com as abordagens mais estruturadas adotadas pela União Europeia e pela China. Até agora, o principal documento que guia a regulação de IA nos EUA é uma ordem executiva do presidente Biden, publicada em outubro de 2023, que delineia princípios éticos gerais para o desenvolvimento de IA. A regulação de IA nos Estados Unidos está inclinada a adotar uma abordagem setorial, caracterizada por um foco maior na inovação e uma preferência por soft laws. Isso significa que, em vez de imposições rigorosas, a regulação pode envolver diretrizes flexíveis que permitem às empresas adaptar-se rapidamente às novas tecnologias e mercados em evolução.
7) Abordagens de regulação de IA para o Brasil
DG- No Brasil, a discussão sobre um marco regulatório teve grande avanço nos últimos anos e, em parte, o debate segue da experiência desenvolvida em outros países. Mas, especialistas defendem que a discussão sobre o tema merece ser ampliada, considerando alternativas de regulação de IA que levem em conta a experiência normativa brasileira e o patamar de desenvolvimento da tecnologia no país, harmonizando a proteção de direitos e garantias com o desenvolvimento socioeconômico, o incentivo à inovação e à competitividade do país.
Nesse sentido, poderias nos esclarecer um pouco mais sobre as diferentes abordagens para estruturas regulatórias de IA, como autorregulação, regulamentação governamental, padrões de segurança e certificações? Ainda, em seu entendimento, como essas abordagens poderiam ser avaliadas para o Brasil?
DC – Existem várias abordagens para a regulação de tecnologia, e a decisão de regular o mercado ou não é fundamental. Embora os mercados privados frequentemente promovam a liberdade individual e o bem-estar econômico, eles podem falhar. As falhas de mercado geralmente ocorrem em duas situações principais: quando os indivíduos não possuem informações críticas necessárias para fazer escolhas informadas, ou quando não contabilizam os custos das externalidades negativas que suas ações criam. Uma externalidade negativa ocorre quando as ações de uma empresa resultam em efeitos indesejáveis ou prejudiciais sobre outras pessoas ou o meio ambiente, e esses custos não são refletidos nos preços de mercado. Nestes casos, uma intervenção regulatória específica pode ser justificada para realinhar as operações das empresas com o bem-estar social.
O modelo regulatório baseado em comando e controle especifica claramente o que é permitido e o que é ilegal, utilizando uma variedade de mecanismos, como padrões de desempenho, padrões de tecnologia, padrões de projeto, regras prescritivas que detalham exatamente como as empresas devem se comportar, restrições de uso que limitam quando, como e por quem uma tecnologia pode ser utilizada, além de licenciamento e certificação para a obtenção de permissão para o uso da tecnologia. Uma aplicação importante desse modelo na prática regulatória contemporânea é o modelo regulatório baseado em risco, que impõe padrões e procedimentos rigorosos que devem ser seguidos para prevenir potenciais danos. Estes padrões são frequentemente baseados no nível de risco associado a diferentes atividades ou tecnologias, com riscos maiores exigindo controles mais rigorosos. Esse modelo é exemplificado pela regulação de IA na União Europeia. Para a regulação de tecnologia, esse modelo em geral é muito restritivo, impondo barreiras muito elevadas.
A auto-regulação é uma abordagem na qual indústrias, setores ou empresas individuais desenvolvem, implementam e monitoram sua própria adesão a diretrizes, padrões ou códigos de conduta voluntários, sem intervenção direta do governo. Esse processo envolve a criação de diretrizes e padrões específicos da indústria que são considerados apropriados pelos participantes dentro da indústria. Embora a auto-regulação permita maior flexibilidade e resposta rápida às inovações tecnológicas, ela também enfrenta críticas quanto à sua capacidade de proteger efetivamente o interesse público.
A regulamentação baseada em inovação adota um modelo tanto proativo quanto reativo, projetado para moldar e orientar o desenvolvimento de novas tecnologias de maneira responsável. Uma ideia central dessa abordagem é o estabelecimento de princípios claros e acionáveis que visam promover o bem-estar social, além de identificar e mitigar riscos que possam levar a desvios desses princípios. Este modelo regulatório frequentemente se baseia em soft laws que, como já mencionei, são diretrizes flexíveis estabelecendo expectativas para resultados em vez de impor estrita conformidade. Uma ferramenta adicional essencial neste arsenal regulatório adaptativo é a sandbox. Este mecanismo permite que empresas testem novos produtos, serviços e modelos de negócios em um ambiente controlado, mas com liberdade regulatória limitada, sob supervisão regulatória.
Apesar das várias iniciativas na Câmara dos Deputados e no Senado Federal, a discussão sobre o marco regulatório de IA no Brasil ainda está incipiente e parece estar se inspirando no modelo da União Europeia, que é predominantemente baseado no nível de riscos do sistema de IA. No entanto, considerar a Europa como modelo para a regulação da inovação pode não ser o mais adequado para o contexto brasileiro. A Europa, apesar de sua liderança em termos regulatórios, não é vista como um referencial em inovação digital ou de IA, o que contrasta com o potencial brasileiro de desempenhar um papel central no desenvolvimento de produtos de IA que sejam eticamente responsáveis, sem estar sobrecarregado por legislações excessivamente restritivas. Para que o Brasil aproveite essa oportunidade única, seria recomendável desenvolver uma abordagem regulatória que promova a inovação. Isso poderia ser alcançado através de uma legislação flexível que se adapte rapidamente às mudanças tecnológicas, similar ao modelo regulatório descrito anteriormente para responder a pergunta sobre o papel do estado na regulação de IA.
8) Adequação e oportunidade do debate sobre um marco regulatório para a IA no Brasil
DG – Ainda sobre a discussão de um marco regulatório para a IA no Brasil, outra questão relevante diz respeito à adequação e à oportunidade desse debate. Se por um lado, uma regulação com viés fiscalizatório e sancionador pode representar um risco para o desenvolvimento da tecnologia no país, comprometendo a inovação dos setores e sua competitividade, por outro, a não regulação pode se tornar um risco ainda maior, gerando incertezas quanto à garantia da proteção de direitos.
Não obstante, a criação de um marco regulatório que concilie o potencial da IA com a proteção de garantias e direitos deve estar fundamentada em ampla discussão, envolvendo o governo e a sociedade como um todo, sendo necessário tempo para concepção e amadurecimento de ideias. Considerando o exposto, em sua avaliação, o que poderíamos considerar como estratégia para lidar com esses desafios?
DC – A expansão do debate sobre a regulação de IA no Brasil é essencial para assegurar que múltiplas perspectivas sejam consideradas, especialmente porque a visão predominante atualmente, compartilhada por muitos juristas, tende a ser mais restritiva ao desenvolvimento da tecnologia. Uma estratégia eficaz para desenvolver uma regulamentação que melhor atenda às necessidades do Brasil seria incluir uma gama mais ampla de partes interessadas nas discussões, como pesquisadores de IA e representantes de pequenas e médias empresas.
9) Projetos de Lei e perspectivas da regulamentação de IA
DG – Atualmente, há cerca de 46 projetos de lei em tramitação na Câmara dos Deputados e no Senado Federal que buscam regulamentar o uso de IA no Brasil, e que podem avançar ainda este ano, apesar de a discussão sobre a criação de um marco regulatório da tecnologia ser recente – a maior parte dos projetos são de 2023 e as proposições mais antigas são de 2019. O projeto mais encaminhado, Projeto de Lei (PL) 2338/2023, estabelece diretrizes para o desenvolvimento e a aplicação de IA e propõe um arcabouço que compreende boa parte dos demais projetos. O PL regulamenta conceitos e define princípios para o desenvolvimento e uso de IA no país, trata dos direitos das pessoas afetadas pela aplicação da tecnologia e define regras para classificação dos riscos decorrentes dessa aplicação.
Considerando o andamento das propostas existentes e as discussões sobre o tema no legislativo, poderias discutir as perspectivas futuras da regulamentação da IA no Brasil, tendo em conta os avanços tecnológicos, as mudanças sociais e as lições aprendidas com os esforços de regulamentação atuais?
DC – Conforme descrevi quando mencionei o papel do estado na regulação de IA, defendo para o Brasil uma abordagem de regulação de IA setorial, com um maior viés em inovação e fundamentada em responsabilidade subjetiva. No entanto, os projetos de lei emergentes no Brasil parecem seguir uma direção diferente. Vou abordar aqui, como você mencionou, apenas o que parece ser um dos mais representativos desses esforços legislativos que é o Projeto de Lei No 2.338 de 2023 (revisado pela relatoria do Senador Eduardo Gomes) que “Dispõe sobre o desenvolvimento, fomento, uso ético e responsável da IA com base na centralidade da pessoa humana”.
A versão revisada do projeto de Lei No 2.338 de 2023 está estruturada em 12 capítulos. O Capítulo I introduz conceitos e princípios para o desenvolvimento e uso de sistemas de IA no Brasil. O Capítulo II foca nos direitos das pessoas impactadas por esses sistemas. O Capítulo III estabelece a categorização de riscos em sistemas de IA, exigindo uma avaliação preliminar, e especifica também critérios para sistemas considerados de alto ou excessivo risco. O Capítulo IV aborda a necessidade de estruturas de governança para assegurar a segurança dos sistemas e a proteção dos direitos dos indivíduos afetados. O Capítulo V discute a responsabilidade civil de fornecedores ou operadores de sistemas de IA. O Capítulo VI sugere a criação de códigos de boas práticas e governança. O Capítulo VII obriga a comunicação de incidentes graves à autoridade competente. O Capítulo VIII propõe a criação de um banco de dados público de IA de alto risco. O Capítulo IX define a supervisão e fiscalização da IA, incluindo sanções administrativas. O Capítulo X propõe medidas para promover a inovação. O Capítulo XI apresenta diretrizes para a atuação do poder público e o Capítulo XII apresenta as disposições finais.
A dificuldade com o Projeto de Lei No 2.338 de 2023 já inicia-se no Capítulo I com sua definição extremamente generalista do que constitui um sistema de IA: “sistema baseado em máquina que, com graus diferentes de autonomia e para objetivos explícitos ou implícitos, infere, a partir de um conjunto de dados ou informações que recebe, como gerar resultados, em especial, previsão, conteúdo, recomendação ou decisão que possa influenciar o ambiente virtual, físico ou real;”. Essa definição é tão abrangente que poderia incluir qualquer modelo estatístico, mesmo os mais simples, como um sistema de IA. Consequentemente, uma empresa que simplesmente utiliza modelos básicos para prever a demanda de produtos, como cimento, seria enquadrada como usuária de sistemas de IA.
Outros problemas também aparecem nesse projeto. Por exemplo, no Capítulo II, ele possui uma seção sobre os “direitos das pessoas e do grupo afetados por IA”, aplicável independentemente do grau de risco do sistema. Isso pode representar um desafio significativo para pequenas empresas. Por exemplo, consideremos uma pequena loja de camisetas online que utiliza um sistema simples de recomendação para sugerir produtos aos clientes. Se um cliente, por questões ideológicas, se sentir ofendido por uma recomendação, esse projeto de lei permitiria que ele fizesse várias exigências legais à empresa. Entretanto, em muitos casos, a resposta natural de um consumidor insatisfeito seria simplesmente deixar de comprar na loja, sem a necessidade de intervenção legal. Esta situação pode parecer anedótica, mas dado o uso disseminado de sistemas estatísticos simples nas empresas, ela pode tornar-se um problema recorrente. Enquanto grandes empresas podem gerenciar essas questões com departamentos jurídicos robustos, pequenas empresas, com recursos limitados e sem expertise legal especializada, podem encontrar-se desproporcionalmente afetadas.
Adicionalmente, as restrições no projeto de lei aumentam para sistemas de IA considerados de alto risco ou risco excessivo. No projeto de lei, de acordo com o Capítulo III, é expressamente proibido o desenvolvimento de sistemas com risco excessivo, proibindo, por exemplo, o desenvolvimento de armas autônomas. Ao considerar cuidadosamente a lista de aplicações com risco excessivo no projeto de lei, embora pessoalmente concorde que tais sistemas representam riscos inaceitáveis que talvez justifiquem sua proibição, é importante considerar dois aspectos críticos na avaliação dessa legislação. Primeiramente, não sendo especialista na área específica desses sistemas de IA, questiono se a escolha de proibir tais sistemas foi feita por indivíduos com a devida expertise técnica. O segundo ponto é a possibilidade de mudanças arbitrarias nessa lista de sistemas proibidos, o que pode gerar uma grande insegurança jurídica. Essa instabilidade pode desencorajar investimentos e inovação, afetando negativamente o desenvolvimento tecnológico.
Ainda de acordo com o Capítulo III, sistemas de IA considerados de alto risco, embora permitidos, estão sujeitos a muitas exigências adicionais. Um desafio significativo dessa abordagem também é a variabilidade da lista que enumera esses sistemas. Por exemplo, na versão preliminar do projeto de lei publicada em 03/05/2023, sistemas destinados à “avaliação da capacidade de endividamento das pessoas naturais ou estabelecimento de sua classificação de crédito” eram classificados como de alto risco e, posteriormente, foram removidos dessa categoria na versão atual de 07/06/2024 que estou explorando aqui e veio anexada ao Relatório do Senador Eduardo Gomes sobre o projeto. Embora concorde com a remoção, isso levanta questões importantes sobre os critérios usados para tal inclusão e remoção, e se essas inconsistências podem afetar outros sistemas ainda listados. Além disso, existe uma disparidade significativa entre os tipos de sistemas incluídos na lista de alto risco, variando de sistemas potencialmente letais, como veículos autônomos em casos de acidente, a sistemas que podem causar constrangimentos, como os que determinam o acesso a instituições de ensino.
Considerando as medidas de governança estipuladas no Capítulo IV para sistemas de IA de alto risco e a aplicação de responsabilidade objetiva aos operadores desses sistemas conforme o Capítulo V, fica praticamente inviável para pequenas empresas ou startups desenvolverem tais sistemas.
Com base nos argumentos apresentados, acredito que o projeto de lei atual, com sua abordagem proposta para a regulação de IA, traz mais insegurança jurídica do que segurança. Ao impor um arcabouço legal complexo, generalista e excessivamente cauteloso, a legislação atual pode desencorajar investimentos em tecnologia inovadora, especialmente por parte de startups e empresas menores que não possuem recursos para lidar com a carga regulatória. Além disso, a legislação favorece a criação de monopólios ao permitir que apenas as empresas com maiores recursos financeiros e jurídicos se adaptem e prosperem sob estas condições. Este cenário é contraproducente para um ecossistema tecnológico saudável e competitivo.
10) Recomendações de materiais
DG – Por fim, diante das reflexões propostas a partir desse tema, que apresenta relevância tanto pelo progresso recente como pela capacidade de impactar em várias áreas da sociedade, quais seriam suas sugestões de materiais, como livros e filmes, para um aprofundamento no assunto?
DC – Gostaria de sugerir especificamente três filmes que me marcaram. O primeiro deles é “Moneyball”, que se concentra nas tentativas de um gerente de baseball para criar um time competitivo, apesar da situação financeira desfavorável da equipe, usando análise estatística do perfil dos jogadores. Esse filme mostra o poder de dados e modelos estatísticos na tomada de decisão. O segundo filme, “Gattaca”, se passa em um futuro onde a engenharia genética é comum e forma a base da sociedade. As pessoas são classificadas como válidas ou inválidas com base em seu DNA, o que determina suas oportunidades de vida, incluindo empregos e status social. Este filme destaca o perigo que pode surgir quando pessoas mal-intencionadas têm acesso a dados privados de saúde. É importante notar que o enredo deste filme e o celebrado livro ‘Admirável Mundo Novo’ de Aldous Huxley compartilham temas e preocupações semelhantes relacionados à engenharia genética, controle social e a busca pela perfeição humana. O terceiro filme, “Minority Report”, gira em torno de uma unidade de polícia que usa seres humanos com habilidades psíquicas, chamados Precogs, que podem prever crimes antes que eles aconteçam. Isso permite que a polícia prenda os criminosos antes de cometerem seus delitos. Hoje, com o desenvolvimento de IA, os Precogs poderiam facilmente ser substituídos por máquinas inteligentes de previsão causando violações sérias de direitos humanos.
Existem vários livros escritos no estilo de ciência popular que são extremamente valiosos.
Honestamente, amei ler cada um deles, mesmo já conhecendo grande parte do conteúdo. O livro “The Master Algorithm: How the Quest for the Ultimate Learning Machine Will Remake Our World”, de Pedro Domingos, explora o campo da AM e a busca por um “algoritmo mestre”, um único modelo capaz de descobrir qualquer conhecimento a partir de dados. Este livro também aborda as implicações éticas e os desafios associados à AM avançada, discutindo como a IA influenciará o futuro do trabalho, da privacidade e da tomada de decisões humanas. “The Ethical Algorithm: The Science of Socially Aware Algorithm Design”, de Michael Kearns e Aaron Roth, foca nos desafios éticos relacionados ao desenvolvimento e implementação de algoritmos na sociedade moderna. Já “Co-Intelligence: Living and Working with AI”, de Ethan Mollick, examina como a IA pode atuar como colega de trabalho, co-educador e treinador, alterando fundamentalmente o mundo dos negócios e da educação. Por fim, os livros “Prediction Machines: The Simple Economics of Artificial Intelligence” e “Power and Prediction: The Disruptive Economics of Artificial Intelligence”, de Ajay Agrawal, Joshua Gans e Avi Goldfarb, oferecem uma visão detalhada do impacto econômico da IA e suas implicações para negócios e sociedade.
Não posso deixar de incluir algumas referências mais técnicas para o leitor mais empolgado. Essas obras fazem parte do conjunto de referências que utilizo no Curso de Métodos Computacionais, que leciono há aproximadamente 16 anos no Departamento de Economia da UnB. A primeira é o clássico “Pattern Recognition and Machine Learning”, de Christopher M. Bishop, uma referência completa e essencial sobre AM. A segunda, “Modern Multivariate Statistical Techniques: Regression, Classification, and Manifold Learning”, de Alan J. Izenman, apresenta de forma excepcional os algoritmos de AM derivados da estatística. A terceira, “Deep Learning”, de Ian Goodfellow, Yoshua Bengio e Aaron Courville, oferece uma abordagem didática dos modelos de deep learning. A quarta, “Reinforcement Learning: An Introduction”, de Richard S. Sutton e Andrew G. Barto, fornece uma introdução à aprendizagem por reforço. Por fim, “Foundations of Statistical Natural Language Processing”, de Christopher D. Manning e Hinrich Schütze, foca na área de processamento de linguagem natural. Embora esses livros não sejam necessariamente manuais práticos ou os mais recentes na área, eles fornecem uma base sólida de conhecimento fundamental que continuará relevante por muitos anos.
Gostaria de finalizar expressando o quão maravilhoso e, ao mesmo tempo, assustador é viver neste momento em que a tecnologia permite que máquinas executem tarefas que anteriormente eram realizadas apenas por humanos. Para compartilhar esse sentimento, lembro de uma música antiga, “It’s the End of the World”, da banda americana de rock alternativo R.E.M. Esta música descreve o ritmo acelerado da vida moderna e as constantes mudanças na sociedade, na política e na tecnologia, capturando a ansiedade e a euforia que podem surgir ao viver em tempos tão transformadores. O refrão ecoa dizendo que é o “fim do mundo como o conhecemos”, e, ainda assim, transmite uma aceitação com “eu me sinto bem”.
Dra. Denise Herminio Gontijo possui graduação em Matemática pela Universidade de Brasília (2006), mestrado em Economia do Setor Público pela Universidade de Brasília/ESAF (2016), e doutorado em Economia do Setor Público pela Universidade de Brasília (2023). Atualmente é Coordenadora-Geral de Revisão de Gastos e Investimentos Plurianuais na Secretaria de Orçamento Federal, do Ministério do Planejamento e Orçamento. Cargo Analista de Planejamento e Orçamento. Contato: [email protected]
Prof. Daniel Oliveira Cajueiro possui graduação em Engenharia Quimica pela Universidade Federal da Bahia (1998) e Mestrado (2000) e Doutorado (2002) em Engenharia Eletrônica e Computação pelo Instituto Tecnológico de Aeronáutica. Atualmente é professor do Departamento de Economia da UNB. É co-autor do livro “Uma Introdução aos Métodos Estatísticos para Economia e Finanças” publicado pela Editora da UnB e autor de mais de uma centena de artigos publicados em periódicos científicos. No período de Julho de 2020 a Julho de 2023 foi membro do Comitê de Assessoramento do CNPQ-COSAE. É Bolsista de Produtividade em Pesquisa do CNPq – Nível 1B, pertenceu a lista dos cientistas mais influentes do mundo de acordo com a Universidade de Stanford para os anos de 2019 e 2020 e está classificado entre os economistas mais produtivos conforme o ranking do Research Papers in Economics (RePEc). Contato: [email protected]