Zane Homsi, gerente de producto de IA en LinkedIn, se une a nosotros para discutir el enfoque centrado en el ser humano para el desarrollo de productos y la importancia de principios claros en los productos.
Cuéntanos un poco sobre ti, tu experiencia y tu rol actual en LinkedIn?
Como gerente de producto de IA en LinkedIn durante casi cinco años, he tenido el privilegio de trabajar en diversas líneas de negocio, incluidos software como servicio, medios y segmentos de consumidores. Mi experiencia me ha dado una comprensión más profunda de las complejidades de las operaciones de las empresas tecnológicas. En este momento, mi enfoque está en desarrollar aplicaciones de inteligencia artificial para mejorar las estrategias de comercialización de LinkedIn, específicamente dirigidas a ventas, soporte al cliente y otros puntos de contacto con los clientes para empresas tecnológicas y empresariales.
Una de las mayores preocupaciones en torno a los avances en IA es el potencial de uso indebido. ¿Cómo ves la innovación combatiendo el fraude?
Es uno de los cambios más aterradores que creo que la IA traerá. Los estafadores ya están explotando la IA, un ejemplo de esto puede ser imitar voces para engañar a grupos vulnerables. Empresas como Veriff y Clear están abordando esto, con el objetivo de mantener a Internet seguro. La confianza es crucial, ya sea en transacciones en línea o en verificación de identidad. Nos enorgullece haber sido votados como la red social más confiable en Internet. A medida que la IA evoluciona, también lo hacen las tácticas de los estafadores, pero la innovación, como la verificación de identidad en línea, ofrece esperanza en la lucha contra el fraude.
¿Estás viendo más precaución por parte de los usuarios en las plataformas sociales a la luz del aumento de los números de fraude en línea?
Definitivamente. Los usuarios, con razón, exigen valor y confianza. Incluso en servicios financieros, como Wealthfront, las recomendaciones equilibran confianza y conveniencia. La confianza varía, desde una verificación robusta como Veriff hasta plataformas anónimas. El nivel de confianza necesario depende del propósito de la plataforma. Por ejemplo, en LinkedIn necesitamos altos niveles de confianza debido a la sensibilidad de las solicitudes de empleo. Depende de los líderes navegar por este espectro de confianza.
¿Qué predicciones tienes para LinkedIn y los diversos productos que se están desarrollando allí, pero también en el espacio más amplio de la IA?
Comenzaré con las predicciones de las que estoy más seguro, primero, creo que la identidad se volverá digital primero, haciendo que las identificaciones físicas sean redundantes. En segundo lugar, la educación se transformará a medida que el aprendizaje se vuelva más personalizado. En tercer lugar, la carrera armamentista de la IA se estabilizará a medida que los proveedores de la nube ofrezcan modelos estandarizados. Finalmente, me gustaría pensar que los dobles digitales mejorarán la productividad, habilitando asistentes de IA personalizados para todos.
¿Cómo aseguras un enfoque centrado en el ser humano para el desarrollo de productos?
En el pasado, el desarrollo de productos implicaba controlar las experiencias de los usuarios a través del diseño. Con la IA, perdemos ese control ya que cada usuario interactúa con las plataformas de manera diferente. Esto hace que el diseño centrado en el ser humano sea más desafiante. Para abordar esto, la claridad en los principios del producto es crucial. Hay un ejecutivo fantástico en LinkedIn llamado David Vombray, que trabaja en nuestro equipo de desarrollo empresarial y asociaciones, tiene una gran forma de pensar sobre los principios: piensa en todos los peores escenarios y qué tendrías que hacer para evitar que eso suceda. Es muy similar al principio de pensar por inversión de Charlie Munger.
En LinkedIn, nuestro principio número uno es IA responsable: garantizar que nuestra IA sea evaluada para prevenir resultados nocivos. Para resumir, diría que para asegurar un diseño centrado en el ser humano, debes definir principios de producto claros y luego implementar salvaguardias para la alineación de la IA.
¿Prácticamente, cómo implementas estos principios, especialmente a través de equipos diversos como diseño UX, desarrolladores y partes interesadas empresariales? ¿Es un ciclo de retroalimentación la clave, y si es así, cómo aseguras que sea efectivo?
Creo que ningún usuario realmente se preocupa por el 90% de los productos tecnológicos que utilizan. Les importa los objetivos que un producto les ayuda a alcanzar más que el producto mismo. En LinkedIn, somos afortunados de tener un equipo dedicado a representar los intereses de los usuarios. Por ejemplo, considera un pequeño negocio que utiliza anuncios de LinkedIn. Solo quieren clientes potenciales y ingresos, no las complejidades del marketing. Así que lanzamos Accelerate, simplificando la creación de anuncios a través de la IA. Cada equipo involucrado en este proceso tiene sus propios mecanismos de retroalimentación. Metas claras, seguimiento y medición aseguran que se obtengan ideas y que las mejoras se realicen de manera iterativa. Dicen que se necesita una aldea, y realmente se necesita, pero alinearse sobre qué ideas buscar y cómo medirlas nos permite mejorar continuamente.
¿Cómo equilibras velocidad, agilidad y ética en el desarrollo de productos?
Todo comienza con entender los incentivos que impulsan las decisiones. Los individuos priorizan sus propios incentivos, que luego se propagan hacia afuera. Una startup puede priorizar lanzamientos rápidos de características para atraer inversores, mientras que una gran corporación podría priorizar la estabilidad debido a las repercusiones de realizar cambios. Principios claros guían la toma de decisiones; piénsalo como una lista de verificación previa al vuelo: ¿cumple esto con IA responsable? ¿gana esto la confianza de nuestros miembros? ¿es este un diseño simple? Todas estas características aseguran que el producto que estás enviando sea de calidad. Cada gerente de producto tiene su propia fórmula secreta sobre cuáles son los principios prioritarios que les importan. Mis dos principales son la seguridad y la IA responsable. Al final, el objetivo es asegurarse de que los productos se prueben y midan en función de las expectativas de los usuarios antes de su lanzamiento.
¿Crees que los marcos y las consideraciones éticas son necesarios en la IA?
Definitivamente. La IA no siempre es la respuesta; a veces, las tecnologías deterministas son mejores. Aprender de la academia y la industria es vital a medida que la tecnología evoluciona rápidamente. Por ejemplo, nuestro proyecto de chatbot tuvo que adaptarse cuando surgieron nuevas tecnologías de IA. Los desafíos de Google destacan la importancia de navegar la IA de manera ética. Estamos manteniéndonos informados, colaborando y enfocándonos en prácticas éticas de IA.
Tenga en cuenta que las opiniones expresadas en este episodio pertenecen a Zane y no a la organización - LinkedIn. La entrevista ha sido editada por su longitud y claridad.