banner

Blog

Apr 25, 2024

¿Puede la tecnología empresarial redimirse con la IA generativa? Vishal Sikka habla sobre hacer bien la IA y evitar a los vendedores de aceite de serpiente de IA generativa

En mi conversación anterior con el Dr. Vishal Sikka, fundador y director ejecutivo de la startup de IA Vianai Systems, hablamos sobre los altibajos de la montaña rusa de la IA, y Sikka ha visto mucho.

Analizamos por qué Sikka firmó esa carta ampliamente incomprendida que advertía sobre los peligros de la IA e instaba a esa infame pausa.

Por supuesto, hablamos sobre los problemas de los LLM, incluidas las alucinaciones y la explicabilidad: Tolerancia cero" para las alucinaciones: el Dr. Vishal Sikka habla sobre cómo Vianai crea aplicaciones de IA y las emociones encontradas del ciclo publicitario de la IA. Cubrimos cómo Vianai aborda eso en el contexto de sus aplicaciones de IA de próxima generación, como:

Pero hay más. ¿Cuál es el consejo de Sikka para los clientes que evalúan proveedores de IA generativa? Después de todo, el éxito empresarial con la IA generativa es un conjunto de saltos de aro totalmente diferente a experimentar con ChatGPT en su propio tiempo.

Mi lista parcial de obstáculos empresariales de IA generativa: gestión de riesgos, problemas de datos/precios de los clientes, caja negra/explicabilidad, mitigación de las limitaciones técnicas de los LLM, dificultades con el uso de LLM de terceros y su personalización con datos de capacitación del cliente respetando al mismo tiempo la privacidad de los datos y la opción. -outs, implicaciones para los precios al cliente, ventajas y desventajas de los casos de uso, etc.

Se trata de una lista imponente de obstáculos, y no es una lista completa. Y sin embargo, como le dije a Sikka,Veo la IA generativa como la oportunidad para la redención de la tecnología empresarial . Parece que la tecnología de consumo ha estado al frente de la innovación empresarial durante décadas, con la cultura de las aplicaciones para teléfonos inteligentes como prueba A. Pero la IA generativa necesita urgentemente barreras de seguridad responsables, y todos los factores que cité anteriormente, ¿no es eso en lo que las empresas sobresalen? ?

Como le dije a Sikka:

En mi opinión, lo que la empresa impone a la IA es exactamente lo que la IA necesita en este momento, que son cosas como seguridad, supervisión legal, supervisión ética y uso adecuado de los datos. Entonces, por ejemplo, una de las cosas que Vianai aborda y que ChatGPT no aborda es: diferentes tipos de fuentes de datos que le brindarán un resultado más limpio. Creo que en estas herramientas también se abordan algunos de los problemas de explicabilidad, al menos en términos de dónde se obtuvo la información.

Sikka está de acuerdo: "Esta es una oportunidad para que las empresas muestren el liderazgo hacia una IA confiable y responsable". ¿Otro componente potencial para una mejor IA? Alguna forma de aprendizaje por refuerzo. OpenAI también hizo una versión de fuerza bruta de esto, para poner algunas "barandillas" de prejuicio/intolerancia en ChatGPT, aunque no sin controversias sobre el abastecimiento de mano de obra. Pero las empresas, en teoría, podrían utilizar la capacitación en modelos iterativos para permitir a los expertos en el dominio ajustar los resultados deseados. Como explica Sikka, estos enfoques también pueden generar confianza en el usuario:

El aprendizaje por refuerzo es una de las formas de hacerlo. La otra parte es simplemente conversacional. Mi mentor solía tener un truco maravilloso en el que te pedía: "Déjame reproducir esto". Entonces digamos que hiciste una pregunta complicada. Él decía: 'Déjame reproducir esto; ¿Querías hacer esta pregunta? Podrías decir: "Haz una corrección". Y luego respondería la pregunta. Por supuesto, también fue una especie de truco, porque le dio tiempo para pensar.

Hacemos eso [en Vianai] cuando no estamos seguros de la intención del usuario. Entonces, si hace una pregunta que involucra uniones, o uniones internas complejas, o algo complicado en varias tablas, se la devolveremos y le diremos: 'Oye, ¿quisiste decir esto?' Y el usuario dirá: 'Sí, esto es lo que quise decir' o lo corregirá. Esa es una forma muy sencilla que tenemos de desambiguar o aclarar la intención del usuario.

De manera similar, cuando damos una respuesta, ya sea sobre datos basados ​​en texto o sobre datos tabulares estructurados, se la presentamos a los usuarios diciendo: 'Aquí es de donde obtuvimos los datos; esta fue la consulta que se ejecutó y esta es la respuesta.' No es fácil hacer eso. Pero lo hacemos, y eso es necesario para las empresas, para que confíen en los resultados que ustedes les ofrecen.

Lo que nos lleva a clientes empresariales: ¿cuál es el consejo de Sikka? A juzgar por mi bandeja de entrada, todos los proveedores de software conocidos por la humanidad ahora tienen una herramienta de inteligencia artificial generativa. Se supone que cada nueva empresa, cada proveedor establecido, está a la vanguardia.

Entonces, ¿cómo puede un cliente comprender mejor dónde está lo real y distinguir a los pesos pesados ​​de los pretendientes? Obviamente, parte de la respuesta son demostraciones prácticas. Pero, ¿cómo aconseja Sikks a los clientes que quieren evitar el factor de aceite de serpiente generativo de la IA? Como me dijo:

Sólo la semana pasada hablé probablemente con unos 50 directores ejecutivos. El viernes pronuncié un discurso; Siempre les doy una lista de verificación de cosas que pueden preguntar a los proveedores:

En cuanto a la seguridad, un 'ataque de inyección rápida' se encuentra ahora en la lista de amenazas:

Está surgiendo una nueva cosa llamada ataque de inyección rápida, donde los tipos de indicaciones que usted presenta al sistema pueden ser pirateados, y algún elemento nefasto podría colocar sus indicaciones en medio de sus indicaciones. Luego, las respuestas que obtiene incluyen estas otras cosas que la gente inyectó [en sus datos]. Así que existen salvaguardias básicas como ésta: sin ellas, las empresas no deberían utilizar estos productos.

¿Una de las mejores cosas de hablar con Sikka? A diferencia de algunos ejecutivos de IA, Sikka puede pasar en un abrir y cerrar de ojos del potencial empresarial de la IA a preocupaciones culturales. En nuestra última entrega, Sikka compartió su convicción sobre la necesidad de una educación global en IA y de tener en cuenta el impacto de la IA en el empleo. Sikka ha asesorado a empresas sobre cómo formular políticas éticas de IA. Aunque es cierto que estas políticas pueden ser más simbólicas que reales en ocasiones, tenemos que empezar por algún lado.

La IA puede ser una fuerza democratizadora al proporcionar acceso global a datos valiosos, como la información médica. Pero: Sikka está igualmente preocupado por frenar el potencial de desigualdad de la IA. Cita el trabajo de su esposa Vandana Sikka:

Mi esposa forma parte de la junta directiva de Code.org durante los últimos nueve años y enseña a la gente informática, codificación y todo eso. Tiene esta estadística: básicamente el medio por ciento de la población mundial sabe programar. Si eres generoso, se acerca al 1%... Si piensas en la IA, la situación es dramáticamente peor que eso. Básicamente tenemos menos de 2 millones de personas que podrían construirte un modelo o algo así. Y el número de personas que podrían ejecutar un sistema de inteligencia artificial o una plataforma de aprendizaje automático es menos de 100.000: 100.000 de 8 mil millones de personas en el mundo.

En ese contexto estadístico, es imposible argumentar en contra de la necesidad de una educación integral (he molestado a mi alma mater con tanta frecuencia sobre esto, que probablemente tengan un filtro para mis correos electrónicos). Pero la cuestión de la pérdida de empleo es más complicada y está cargada de hipérboles contraproducentes. Para comprender el factor de pérdida de empleos de la IA, primero debemos estar de acuerdo sobre el poder de la IA generativa, pero también sobre sus limitaciones. Esta generación de LLM no son sistemas cognitivos. Sikka, que tiene una base mucho más profunda en la historia de la IA, lo resume:

No, los [LLM] no pueden razonar; no está ni cerca de eso... Son increíblemente buenos aprendices de memoria, aprendices de lo que se ha visto antes y de reutilizarlo.

Dejando a un lado las limitaciones, estas siguen siendo herramientas potentes. Aunque necesitaré convencerme de que es posible "cero alucinaciones" con los LLM, como le dije a Sikka, esa es una afirmación bienvenida y audaz, porque si los clientes tienen algún problema de este tipo, el equipo de Sikka se enterará.

No repetiré las opiniones de Sikka sobre la amenaza de la IA a los empleados de nivel junior en todas las industrias, pero Sikka ve un gran potencial para la IA generativa en áreas como la generación de contenido, soporte/asistencia digital y, especialmente, en programación de computadoras. Y, sin embargo, el impacto actual de la IA generativa se debe más a un asistente imperfecto pero muy útil que a una pérdida masiva de empleos. Según Sikka:

Es una herramienta muy poderosa. Ahora bien, ¿sustituye puestos de trabajo? Hay dos maneras de verlo. La IA hace un buen trabajo escribiendo código, por ejemplo, o redactando borradores iniciales de informes de investigación, ensayos, contratos, documentos técnicos, cualquiera de estos tipos de cosas. Sin embargo, en casi el 100% de los casos, es necesario controlar lo que hace, porque es usted quien asume la responsabilidad. Puedes mirarlo y decir: 'Está bien, estas partes son correctas'. Estos no son correctos. Déjame arreglar eso y listo.' Entonces, si tiene suerte, habrá ahorrado el 30/40/50 por ciento de su tiempo.

¿Hasta dónde podemos traspasar los límites? El tiempo lo dirá, pero Sikka encontró su ritmo con Vianai. Después de haber visto a Sikka trabajar en puestos de grandes empresas, está claro que la vida de una startup se adapta a su energía: convertir ideas en productos, rápidamente. En los próximos meses, podemos esperar más novedades sobre productos de Vianai y más aplicaciones de IA conversacional.

La tracción está llegando. Justo antes del cierre de esta edición, escuché de la firma de relaciones públicas de Vianai que "Vinai anunció que la compañía cerró su primer acuerdo hila Enterprise con uno de los bancos más grandes y respetados de Asia". Necesitamos más lecciones de campo de implementaciones de LLM a gran escala; Espero las actualizaciones del proyecto.

Crédito de la imagen - Crédito de la imagen - Captura de pantalla del Dr. Vishal Sikka de la reproducción del video en vianai.com.

Veo la IA generativa como la oportunidad para la redención de la tecnología empresarial
COMPARTIR