Riscos ESG relacionados à IA: o que os investidores precisam saber | Postagem do blog

Foto na cabeça do coautor Daram Pandian, Associate, Private Equity & Venture Capital, PRI

A indústria de inteligência artificial (IA) está crescendo. Uma pesquisa de 2021 da PwC com 1.000 empresas descobriu que apenas 5% não usam IA – abaixo dos 47% um ano antes.

Essa tendência também se manifestou no capital de risco, com investidores direcionando cerca de US$ 75 bilhões para a IA em 2020, segundo a OCDE. Oito anos antes, o valor era de US$ 3 bilhões.

O investimento responsável em capital de risco está crescendo e, quando se trata de investimentos em IA, a necessidade de considerar fatores ESG e possíveis resultados no mundo real é particularmente forte.

Como muitas tecnologias emergentes e de rápida evolução, os sistemas de IA apresentam riscos e oportunidades ESG significativos, não apenas para as empresas que os desenvolvem, vendem ou usam, mas também para as pessoas, a sociedade e o ambiente com os quais interagem.

Os GPs de capital de risco podem ajudar a estabelecer estruturas, processos e valores sustentáveis ​​nas empresas do portfólio antes que suas práticas se tornem arraigadas e difíceis de mudar à medida que essas empresas crescem.

Recentemente, realizamos um workshop sobre esse tema para os membros da Rede de Capital de Risco do PRI – e discutimos os principais temas explorados abaixo.

Quais são os principais riscos associados aos sistemas de IA?

Exemplos recentes de problemas ESG significativos associados a sistemas de IA incluem:

Deixar de considerar essas e outras questões de ética da IA ​​pode criar riscos materiais para os GPs relacionados à reputação, conformidade e criação de valor, embora possam variar, dependendo se uma investida está criando o sistema de IA ou simplesmente integrando-o em suas operações, por exemplo exemplo.

Determinar a materialidade das questões de ética da IA ​​é algo com o qual os GPs de capital de risco estão lutando, de acordo com a discussão do workshop.

Por exemplo, os riscos associados a uma empresa que usa um sistema de IA para otimizar um processo de produção seriam diferentes daqueles que podem se desenvolver se os dados pessoais ou do consumidor estiverem sendo coletados.

Os problemas também podem surgir se um sistema de IA for usado para fins não intencionais – como a tecnologia de reconhecimento facial sendo mal utilizada pelas autoridades governamentais (Média).

Avaliando os riscos de ética da IA

Os GPs podem adotar várias abordagens para avaliar a ética da IA ​​de uma potencial holding de capital de risco:

  • Por aplicação típica: atribuindo níveis de risco amplos com base em legislação como a Lei de Inteligência Artificial da UE (consulte também Leis de IA existentes e propostas, abaixo), que divide os aplicativos de IA em categorias de risco, de inaceitável a baixo risco.
  • Avaliação de terceiros: usar um serviço de terceiros com conhecimento técnico, ético e legal (por exemplo, auditores de ética em IA, provedores de serviços ESG especializados em IA) para avaliar detalhadamente os riscos de um sistema de IA, especialmente em startups em estágio avançado que possuem produtos maduros.
  • Avalie a responsabilidade de IA da startup: avaliar como uma startup usa a ética da IA ​​em seu próprio fluxo de trabalho e desenvolvimento de produtos – as startups que desenvolvem e implantam a IA com responsabilidade têm maior probabilidade de detectar problemas de ética da IA ​​e corrigi-los.

Isso pode ser feito durante a triagem e a devida diligência – por exemplo, por meio de conversas sobre ética em IA com startups ou usando terceiros para avaliar a tecnologia em questão.

Os GPs podem incluir a ética da IA ​​em seus memorandos de investimento e scorecards ou incluir uma cláusula ou acordo paralelo em uma folha de termos para garantir que as expectativas sejam definidas claramente. Dependendo do escopo de influência que os GPs têm, eles também podem pressionar para que as métricas de ética da IA ​​e os relatórios estejam na agenda do conselho da empresa investida.

Em nosso workshop, os participantes enfatizaram a importância de fornecer educação e treinamento sobre ética em IA aos fundadores das empresas do portfólio e às equipes de negócios dos GPs, por meio de seminários ou outros recursos.

Leis de IA existentes e propostas

A regulamentação específica de IA já foi aprovada em várias jurisdições, por exemplo:

  • A China aprovou recentemente uma lei que regula os serviços de recomendação algorítmica de IA.
  • O estado do Maine, nos EUA, restringe o uso de reconhecimento facial por autoridades governamentais.
  • A cidade de Nova York proíbe os empregadores de usar a IA para recrutar, contratar e promover sem passar por uma auditoria parcial.

Outras leis específicas de IA estão no horizonte. Por exemplo:

  • A Lei de Inteligência Artificial da UE é o esforço mais importante para regular a IA e espera-se que seja aprovada. Ele divide os aplicativos de IA em categorias de risco e define regras para cada um.
  • O esforço de regulamentação federal mais proeminente nos EUA é o Algorithmic Accountability Act, que exigiria que as empresas conduzissem avaliações de impacto nos sistemas automatizados que vendem e usam.

Os leitores que desejam mais informações sobre os esforços de regulamentação da IA ​​podem consultar esta lista de recursos.

Um tópico nascente com relevância crescente

Conversas anedóticas com GPs de capital de risco indicam que suas abordagens variam – alguns desenvolveram processos estruturados com perguntas específicas e áreas de risco para avaliar, enquanto outros estão cientes da ética da IA ​​como um tópico, mas podem não aplicar sistematicamente essas considerações.

O foco na ética da IA ​​é mais prevalente entre os GPs de capital de risco que visam o setor de tecnologia ou, dentro dele, aqueles que se concentram apenas na IA. Mas isso provavelmente mudará, dado o crescimento dos sistemas de IA em setores e indústrias além da tecnologia, e o fato de que várias jurisdições aprovaram ou estão desenvolvendo leis para regular o desenvolvimento e a implantação de sistemas de IA.

Nosso workshop destacou outra área potencial de tensão, onde um investimento potencial apresenta riscos éticos de IA que não são financeiramente materiais, mas podem levar a resultados negativos. Por exemplo, uma empresa de mídia social cujo produto é impulsionado por algoritmos que podem levar ao vício do usuário e causar impactos negativos na saúde mental. Alguns GPs podem sentir que não podem levar em consideração a ética da IA ​​nessas circunstâncias devido às suas percepções em relação ao dever fiduciário.[1]

Uma maneira de os GPs abordarem isso seria deixar claro em conversas com LPs potenciais e existentes, principalmente ao arrecadar fundos, até que ponto eles considerarão a ética da IA ​​ao determinar se devem fazer um investimento.

Ter essas conversas com LPs não seria fora de lugar. Os proprietários de ativos esperam cada vez mais que seus gerentes de investimento considerem os fatores ESG e querem entender os resultados positivos e negativos do mundo real para os quais seu capital está contribuindo.

De fato, a demanda dos clientes é um dos principais impulsionadores do investimento responsável no setor de capital de risco.

Isso – juntamente com a lógica clara para avaliar os riscos e oportunidades ESG que muitas investidas apresentam, particularmente em setores emergentes como a IA – continuará a moldar o desenvolvimento de práticas mais formais e padronizadas.

O PRI está apoiando esse desenvolvimento de várias maneiras, inclusive reunindo assinaturas para discutir tópicos relevantes de due diligence. Também produzimos estudos de caso que destacam as melhores práticas emergentes entre gerentes de investimento e proprietários de ativos e publicamos um artigo, Iniciando: investimento responsável em capital de risco, para avaliar o cenário até o momento.

Explore esses recursos

Este blog é escrito por membros da equipe do PRI e colaboradores convidados. Nosso objetivo é contribuir para o debate mais amplo sobre questões atuais e ajudar a mostrar algumas de nossas pesquisas e outros trabalhos que realizamos em apoio aos nossos signatários. visões oficiais, os autores do blog escrevem em sua capacidade individual e não há “visão da casa”. Os pontos de vista e opiniões expressos neste blog também não constituem aconselhamento financeiro ou profissional.Se você tiver alguma dúvida, entre em contato conosco pelo e-mail blog@unpri.org.

Leave a Comment