Veriff
Librarypodcasts✨ A trifecta digital: usando IA para velocidade, agilidade e ética

✨ A trifecta digital: usando IA para velocidade, agilidade e ética

Zane Homsi, Gerente de Produto de IA no LinkedIn, se junta a nós para discutir a abordagem centrada no ser humano para o desenvolvimento de produtos e a importância de princípios claros de produtos.

Header image
Author
Lottie Owen Jones
Head of Social Media
April 18, 2024
Podcast
Share:
On this page
A carreira de Zane no LinkedIn
Como a inovação está combatendo a fraude
Cuidado do usuário nas mídias sociais
Previsões para 2024
Uma abordagem centrada no ser humano para o desenvolvimento de produtos
Um loop de feedback e colaboração entre equipes
Equilibrando velocidade, agilidade e ética
Estruturas e considerações éticas em IA

Ouça a conversa completa com Zane agora!

Conte-nos um pouco sobre você, sua formação e seu papel atual no LinkedIn?

Como gerente de produto de IA no LinkedIn há quase cinco anos, tive o privilégio de trabalhar em várias linhas de negócios, incluindo software como serviço, mídia e segmentos de consumidor. Minha experiência me deu uma compreensão mais profunda das complexidades das operações de empresas de tecnologia. No momento, meu foco é desenvolver aplicativos de inteligência artificial para aprimorar as estratégias de go-to-market do LinkedIn, visando especificamente vendas, suporte ao cliente e outros pontos de contato com o cliente para empresas de tecnologia e enterprise.

Uma das maiores preocupações em relação aos avanços em IA é o potencial para abuso. Como você vê a inovação combatendo a fraude?

É uma das mudanças mais aterrorizantes que eu acho que a IA trará. Golpistas já estão explorando a IA, um exemplo disso pode ser mimetizar vozes para enganar grupos vulneráveis. Empresas como Veriff e Clear estão enfrentando isso, visando manter a internet segura. A confiança é crucial, seja em transações online ou verificação de identidade. Temos orgulho de ser considerados a rede social mais confiável da internet. À medida que a IA evolui, assim também as táticas dos golpistas, mas a inovação, como a verificação de identidade online, oferece esperança na luta contra a fraude.

Você está percebendo mais cautela dos usuários nas plataformas sociais à luz do aumento dos números de fraudes online?

Definitivamente. Os usuários, com razão, exigem valor e confiança. Mesmo em serviços financeiros, como Wealthfront, as referências equilibram confiança e conveniência. A confiança varia, de uma verificação robusta como a da Veriff a plataformas anônimas. O nível de confiança necessário depende do propósito da plataforma. Por exemplo, no LinkedIn precisamos de altos níveis de confiança devido à sensibilidade das candidaturas de emprego. Cabe aos líderes navegar neste espectro de confiança.

Quais previsões você tem para o LinkedIn e os vários produtos que estão se desenvolvendo lá, mas também no amplo espaço da IA?

Começarei pelas previsões nas quais estou mais certo, em primeiro lugar, acho que a identidade se tornará digital-first, tornando os IDs físicos obsoletos. Em segundo lugar, a educação se transformará à medida que o aprendizado se torna mais personalizado. Em terceiro lugar, a corrida armamentista de IA se estabilizará à medida que os provedores de nuvem oferecerem modelos padronizados. Finalmente, eu gostaria de pensar que os gêmeos digitais irão aumentar a produtividade, possibilitando assistentes de IA personalizados para todos.

Como você garante uma abordagem centrada no ser humano para o desenvolvimento de produtos?

No passado, o desenvolvimento de produtos envolvia o controle das experiências dos usuários por meio do design. Com a IA, perdemos esse controle à medida que cada usuário interage com as plataformas de maneira diferente. Isso torna o design centrado no ser humano mais desafiador. Para enfrentar isso, a clareza sobre os princípios do produto é crucial. Há um executivo fantástico no LinkedIn chamado David Vombray, que trabalha em nossa equipe de desenvolvimento de negócios e parcerias, ele tem uma ótima maneira de pensar sobre princípios: pensar em todos os piores cenários possíveis e o que você precisaria fazer para evitar que isso aconteça. É muito semelhante ao princípio de Charlie Munger chamado Pensar pela inversão.

No LinkedIn, nosso princípio número um é IA responsável: garantindo que nossa IA seja testada para evitar resultados prejudiciais. Para resumir, eu diria que, para garantir um design centrado no ser humano, você deve definir princípios claros de produto e, em seguida, implementar salvaguardas para o alinhamento da IA.

Na prática, como você implementa esses princípios, especialmente em equipes diversas como design de UX, desenvolvedores e partes interessadas de negócios? Um loop de feedback é a chave, e, se sim, como você garante que ele seja eficaz?

Acredito que nenhum usuário realmente se preocupa com 90% dos produtos tecnológicos que usam. Eles se preocupam com os objetivos que um produto os ajuda a alcançar, em vez do próprio produto. No LinkedIn, temos a sorte de ter uma equipe dedicada a representar os interesses dos usuários. Por exemplo, considere uma pequena empresa usando anúncios do LinkedIn. Eles apenas querem leads e receita, não as complexidades do marketing. Então, lançamos o Accelerate, simplificando a criação de anúncios através da IA. Cada equipe envolvida nesse processo tem seus próprios mecanismos de feedback. Metas claras, rastreamento e medição garantem que insights sejam coletados e melhorias sejam feitas iterativamente. Dizem que leva uma aldeia para criar algo, e realmente leva, mas alinhar o que insights buscar e como medi-los nos permite melhorar continuamente.

Como você equilibra velocidade, agilidade e ética no desenvolvimento de produtos?

Tudo começa com a compreensão dos incentivos que impulsionam as decisões. Os indivíduos priorizam seus próprios incentivos, que depois se propagam. Uma startup pode priorizar lançamentos rápidos de funcionalidades para atrair investidores, enquanto uma grande corporação pode priorizar a estabilidade devido às repercussões de fazer mudanças. Princípios claros orientam a tomada de decisões, pense nisso como uma lista de verificação pré-voo: isso atende à IA responsável? Isso gera a confiança de nossos membros? Este é um design simples? Todos esses atributos garantem que o produto que você está lançando seja de qualidade. Cada Gerente de Produto tem sua própria receita secreta para quais são o conjunto priorizado de princípios que importam para eles. Meus dois principais são segurança e IA responsável. Em última análise, o objetivo é garantir que os produtos sejam testados e medidos em relação às expectativas dos usuários antes do lançamento.

Você acha que estruturas e considerações éticas são necessárias na IA?

Definitivamente. A IA nem sempre é a resposta; às vezes, tecnologias determinísticas são melhores. Aprender com a academia e a indústria é vital à medida que a tecnologia evolui rapidamente. Por exemplo, nosso projeto de chatbot teve que se adaptar quando novas tecnologias de IA surgiram. Os desafios do Google destacam a importância de navegar na IA de forma ética. Estamos nos mantendo informados, colaborando e focando em práticas de IA ética.

Por favor, note que as opiniões expressas neste episódio pertencem a Zane e não à organização - LinkedIn. A entrevista foi editada para comprimento e clareza.

VERIFF VOICES

Ouça a conversa completa com Mike e explore mais episódios do podcast Veriff Voices.