Ética artificial e inteligencia humana.
La ética en inteligencia artificial soporta un hype casi mayor que la propia IA. A continuación, mi interpretación de los hechos.
Le doy crédito por el título del post a Jaime Agulló, que bautizó así la mesa redonda en la que participé este pasado jueves en La arroba de I+A. Un tema denso, complejo y crucial para el desarrollo y la adopción de la IA. Un tema que me da algo de pereza, también. Por manido y porque la ética no es mi ámbito filosófico predilecto. Aún así, disfruté los interminables debates en las clases de deontología profesional cuando estudiaba ICAI. Creo que los jesuitas hicieron un buen trabajo instilando valores, aunque algunos de sus polluelos le saliéramos luego ateos confesos.
¿Es necesaria la ética?, se preguntó en la mesa redonda. Incluso se sacó a relucir a Robert Sapolsky que defiende junto a otros (con criterios científicos cada vez de mayor peso) que no existe el libre albedrío y lo que esto podría traer de disrupción al terreno mismo de la ética. La respuesta unánime de la sala fue que sí, que hay que tener en cuenta la ética en el desarrollo y uso de la IA. Ahora, toca claro, entender qué es la ética, cómo afecta a la IA y cómo la ética conforma la regulación (o la auto-regulación).
La ética y la diversidad cultural.
La ética es la rama de la filosofía que evalúa principios y valores morales. Pero las diferencias en la regulación de la tecnología a un lado y otro del Atlántico, o en el Sureste asiático, ponen de manifiesto un primer obstáculo a la hora de generar un consenso universal: la moralidad está estrechamente relacionada con nuestra comunidad, nuestra nación, nuestra cultura. En su libro The righteous mind, Jonathan Haidt (mi lectura de cabecera para entender la polarización y combatirla) explica convincentemente por qué la búsqueda del bien no es incompatible con posiciones políticas contrapuestas (izquierda y derecha) y de dónde emanan los diferentes valores morales presentes en una misma sociedad.
Esta diversidad moral dificulta alcanzar un consenso universal, e impacta, por ejemplo, en el alineamiento de los grandes modelos de lenguaje. Le he preguntado a ChatGPT que me ayude a definir el concepto de alineamiento:
El alineamiento de los modelos fundacionales de lenguaje es el proceso de asegurar que estos modelos, como GPT-4, actúen conforme a los valores y objetivos humanos deseados. Esto incluye minimizar sesgos, garantizar la seguridad y control en sus decisiones, y asegurar que sus procesos y respuestas sean transparentes y explicables. En esencia, se trata de ajustar la IA para que sus acciones y decisiones sean éticamente correctas y beneficiosas para la sociedad.
Pero si los “valores” de un votante republicano no coinciden con los de un votante demócrata, ¿cómo se refleja en las conversaciones que tenemos con los grandes modelos fundacionales? Lo que viene a constatar que existe el sesgo político. Ante esta diversidad moral, Ben Thompson anticipa la idea de que podrían co-existir diferentes modelos conformes a “nuestra ética”. A ello apunta, sin ir más lejos, Grok, el modelo de Elon Musk que busca ser adalid de la libertad de expresión y hace uso de censura mínima.
Los principios de la Unesco.
Pero evidentemente, tiene sentido intentar aplicar una visión universal a los principios éticos que gobiernen el desarrollo y el uso de la IA. Aún a riesgo de quedarnos por las nubes.
Asistí recientemente a una masterclass de Ted Lechterman, profesor de ética en IE Business School que dirige la cátedra UNESCO en ética y gobierno de IA. Ted recomienda leer los principios aprobados por la UNESCO, porque son las directrices más ampliamente respaldadas para la IA (aprobadas en 2021 por 193 Estados miembros). Están redactadas por un grupo de expertos de alto nivel formado por académicos, profesionales y líderes de la sociedad civil con representación mundial, y tienen por objetivo aprovechar los beneficios de la IA para el desarrollo humano y social y garantizar que los riesgos de la IA se estudian detenidamente, se mitigan y se distribuyen de forma equitativa.
El informe completo puede ser consultado aquí, pero le he pedido a ChatGPT, otra vez, que nos haga un resumen (editado):
Derechos Humanos y Dignidad: respetar y promover los derechos humanos, garantizando la igualdad, la no discriminación y la dignidad humana. Las tecnologías de IA no deben perpetuar sesgos ni discriminaciones.
Beneficio para la Humanidad y el Medio Ambiente: contribuir al bienestar de la humanidad y al equilibrio ecológico. Los desarrollos en IA deberían enfocarse en resolver problemas globales, como el cambio climático y la desigualdad social.
Transparencia y Explicabilidad: los algoritmos deben ser transparentes y comprensibles. La explicabilidad genera confianza y permite una supervisión adecuada de estas tecnologías.
Responsabilidad y Rendición de Cuentas: se debe establecer un marco claro de responsabilidad para los actores involucrados en el desarrollo y uso de IA. Esto incluye mecanismos para la rendición de cuentas en caso de daños o violaciones éticas.
Inclusión y Diversidad: la UNESCO enfatiza la importancia de que la IA refleje y respete la diversidad cultural y social. Esto incluye la participación de diversos grupos en el desarrollo y la implementación de tecnologías de IA.
Educación y Conciencia Pública: promover la educación y la conciencia pública sobre la IA es esencial. Los ciudadanos deben ser informados sobre los beneficios y riesgos de la IA para tomar decisiones informadas.
Aunque estén en el ojo del huracán por sus controvertidas decisiones, las empresas que desarrollan IA tienen muy en cuenta estos principios generales. No todo es avaricia o ambición de poder. Cojamos el principio de la explicabilidad. Uno de los problemas de las redes neuronales es que funcionan de manera probabilística. Son cientos de capas, con millones de nodos que se ajustan solos en el proceso de aprendizaje y cuyos estados intermedios en funcionamiento son indescifrables. Precisamente, descifrar esas cajas negras es uno de los objetivos de Anthropic, una de las principales empresas de desarrollo de LLMs con un especial foco en la seguridad de uso actual y futuro de los mismos. Y la presión social y política para que estas empresas corrijan sesgos o eviten respuestas indeseadas no dejará de aumentar. Y asistiremos a más espectáculos como el de los soldados nazis diversos e inclusivos.
¿Romper cosas para avanzar? ¿O pisar con cautela para asegurar?
Siempre que se habla de ética se pone foco en los riesgos y se suelen olvidar los beneficios. Determinar lo correcto condiciona (y retrasa) la regulación. Veamos un ejemplo clásico de dilema ético en IA.
Los coches autónomos utilizan varios tipos de tecnologías IA. Un tipo es IA simbólica, que usa algoritmos deterministas para hacer predicciones y tomar decisiones. También hay redes neuronales (deep learning) para la visión computacional. La IA generativa juega un papel como interfaz de interacción conversacional con los ocupantes del vehículo, pero hoy día no es la más relevante. Confrontados con una situación crítica de riesgo, que el vehículo tenga que decidir si atropella a unos transeúntes o estrella el coche contra una pared poniendo en riesgo la vida de los ocupantes del vehículo nos inquieta a todos. Cada vez que se produce un accidente de un coche autónomo se magnifica en los medios de comunicación o incluso se pone freno a los permisos, sin mención al otro lado de la balanza: que cada día mueren en las carreteras cientos de personas y que el retraso en el despliegue y la regulación de la conducción autónomo cuesta vidas y destruye familias.
Evidentemente, un tema como este no se puede tratar con superficialidad. La industria farmacéutica lleva trabajando con este balance moral desde hace más de un siglo. Desarrollar nuevos fármacos requiere años de investigación y experimentación y muchas vidas se pierden “por omisión”. Pero controlar los procesos garantiza la seguridad en el despliegue de una tecnología (la farmacéutica) de alto riesgo.
Le pregunté Ted Lechterman sobre el problema de los coches autónomos y su respuesta me dejó pensando: que la última responsabilidad la tenga un humano, aunque esto cueste vidas, se trata de un principio fundamental de trabajo en la ética. El software ya tiene hoy capacidad de decisión en muchos temas menos vitales donde antes intermediaban humanos. Como sociedad tendremos que seguir determinando en qué procesos queremos que sea un humano el que apriete el botón.
La necesidad de la ética y el papel de las marcas.
El consumidor occidental se ha vuelto un forofo de la ética empresarial. Puede que el declive de los valores religiosos saque a pasear el cura laico que todos llevamos dentro. Puede que la constatación del cambio climático nos haya atizado un zasca. Y aunque sea sólo de boquilla, declaramos ahora que pagaríamos un precio más elevado por productos y servicios de empresas con fuerte compromiso ético. Sea postureo o sea que los profesionales queremos dormir bien por las noches pensando que nuestros empleadores se preocupan honestamente por construir un mundo mejor, lo cierto es que la ética es una disciplina en alza en empresas y en escuelas de negocio, a las que hasta hace poco se tachaba de educar únicamente en la maximización del valor del accionista.
En Good Rebels no queremos ser menos. Llevamos una década predicando al que se deja que nuestro propósito va de inspirar a las organizaciones a centrarse más en las personas (human-centred organisations). Algo que luego se ha bautizado como “capitalismo consciente” o de “capitalismo de stakeholders”. Así que tenemos que repetirnos que sí, que la ética es necesaria, en la IA y en muchos otros ámbitos de actuación empresarial.
Una de las resistencias al uso de la IA en las empresas se fundamenta en el miedo a perder el empleo. Negociaciones sindicales y compromisos para mantener de puestos de trabajo serán necesarios. Y ayudarán a fomentar la adopción. Recientemente hemos arrancado algún proyecto para introducir la IA generativa en procesos internos de algún cliente. Uno de los primeros pasos busca constituir un manifiesto, unos principios de actuación para enviar un mensaje rotundo a los empleados (primero). Este es el que hemos elaborado en Good Rebels:
La mayoría de las empresas serán usuarias de desarrollos de IA generativa creados por startups o grandes empresas tecnológicas. A estas últimas les corresponde garantizar el desarrollo ético de los motores IA. Pero un asistente virtual de atención al cliente, aunque trabaje contra las APIs de OpenAI, será considerado un desarrollo IA por la regulación europea. Así que nadie queda libre de asegurar principios y estándares éticos. Además, las empresas toman decisiones con algoritmos IA que afectan a sus clientes (¿a quién se le concede un préstamo hipotecario?).
Y por último, igual que se han planteado boicots empresariales para presionar a las plataformas tecnológicas sobre ciertos aspectos de ética dudosa, podríamos asistir a peticiones de anunciantes que se unen para combatir posturas con las que están en desacuerdo.
Que no haya sido el caso a raíz del último anuncio de Facebook, no significa que no pueda llegar a ocurrir.
El próximo domingo (casi como un cura laico), vuelvo puntualmente a tu buzón.
Fernando.
Si estás en Barcelona o alrededores el próximo 20 de junio, te invitamos desde el Foro IA a continuar con la conversación sobre el impacto de IA generativa en Marketing, Comunicación y Experiencia de Cliente. Nos acompañarán Rodrigo Miranda Beltrán, de ISDI, Sofia Mayoral, de Banco Sabadell, Ugo Smith, de Good Rebels, y José María Palomares, VP del Foro IA junto a un servidor.
¡Reserva ya tu plaza! 👉🏼 Evento Foro IA Barcelona
🗓️ 20 de junio de 2024
🕜 18:00h
📍 ISDI (C/ de la Diputació 37, Barcelona) .
Enlaces de interés para el profesional MCX.
Lecturas seleccionadas de la semana:
The state of AI in early 2024, de McKinsey: la adopción de la IA generativa se ha duplicado en el último año, y las expectativas continúan altas. Las organizaciones están usando la IA en más áreas del negocio (la mitad la usa en dos o más áreas), principalmente en Marketing y Ventas, Desarrollo de Productos y TI. Además, crece el uso personal de la IA generativa, con un 42% de encuestados usándola fuera del trabajo. MCKINSEY
En un proceso tan descomunal de hype, cada semana saldrán artículos apremiando y otros apuntando al desinfle de alguna burbuja. En el WSJ se apunta ahora a que se ralentiza el ritmo de mejora de los modelos, la IA se está comoditizando, los costes son exorbitados y la adopción y los casos de uso son menores de lo esperado. ¿Se acerca un nuevo invierno IA? Ojo, que cada artículo de opinión lleva mucho de posicionamiento ideológico. WSJ
Cómo influiye la IA en el trabajo de los profesionales del marketing: habrá una evolución a lo largo de tres fases. Primero (donde ahora estamos) copilots, asistentes bajo supervisión humana. Después serán agentes, especializados en campañas hiper personalizadas. Y finalmente funcionarán como equipos autónomos, diseñando sus propias estrategias y planes de acción. A16Z
Otro de A16Z, su visión sobre el futuro de los agentes de voz. A16Z
Cómo la IA Generativa está influyendo en el trabajo de los diseñadores UX. Ahora pueden crear recorridos dinámicos que se adapten al contexto y los objetivos de cada usuario. La IA permite construir journeys hiperpersonalizados, orientados a objetivos y efímeros. LINK
WonderJourney: una espectacular aplicación que parte de una descripción o una imagen para crear una secuencia en forma de travelling, siguiendo la temática y el estilo del punto de partida. Lo ha creado la universidad de Stanford bajo la dirección de Fei Fei Li. Funciona con una combinación de LLM, VSG (Visual Scene Generator) y VLM (Vision Language Model), explicado aquí.
La empresa surcoreana Naver enseña en un vídeo cómo su flota de 100 robots se mueve por un edificio de 36 plantas para repartir cafés, comida y paquetes a los empleados. YOUTUBE
Amazon ha empezado a implantar en sus almacenes en EEUU el Proyecto PI (Private Investigator). Utilizando una combinación de Computer Vision e IA generativa, todos los productos se examinan una vez empaquetados y antes de ser enviados, y se retiran si se encuentra algún defecto. También trabaja en un LLM multimodal que compara las opiniones de clientes insatisfechos con imágenes del Proyecto PI para entender los motivos de las quejas. AMAZON
La startup de IA Harvey ha recaudado tres rondas de inversión para desarrollar software que facilita el trabajo administrativo legal. Ahora está en conversaciones con inversores para recaudar $600 millones a una valoración de al menos $2 mil millones, más del doble de su valoración en diciembre pasado. Si logra recaudar esa cantidad, podría utilizar el nuevo capital para comprar vLex, la empresa catalana vLex, una plataforma global de inteligencia legal que proporciona acceso a la colección más extensa de información legal y normativa del mundo. Fundada en 2000 que es propiedad actualmente de la firma de capital privado Oakley Capital. THE INFORMATION (registro).
Substack ha puesto en marcha un chatbot de atención que es capaz de responder el 90% de las consultas que recibe, casi todas relacionadas con marketing, crecimiento y producto. Esto permite que los agentes humanos atiendan el otro 10% de preguntas, tratando directamente con los autores. LINK
AI and the future of news. ¿Qué opina el público de 6 países sobre el uso de la IA generativa en los periódicos y otros medios de comunicación? PDF
Desde la logística hasta la atención al cliente, los LLM pueden impulsar mejores experiencias de compra y ayudar a los minoristas a transformar los vientos económicos en vientos de cola para lograr un mayor crecimiento. COHERE
Los directores financieros están tratando de encontrar el equilibrio de gasto en IA generativa. El 55% de las empresas que gastaron entre 1 y 5 millones de dólares al año en IA quieren gastar la misma cantidad este año, lo que sugiere que podría ser el punto óptimo para la mayoría de las empresas. LINK (registro)
Esta semana ChatGPT, Gemini, Claude y Perplexity tuvieron una caída de servicio. ¿Qué pasaría si internet dejara de funcionar? No solo se extendería una ola de pánico y ansiedad, sino que tendría consecuencias económicas graves. Con una hora sin internet la economía de EEUU perdería 458 millones de dólares. En España serían 23,6 millones. Una hora sin internet le costaría a Amazon 65 millones de dólares. Lo ha calculado CloudZero. LINK
Pages, la herramienta que ha presentado Perplexity, construye una página con cualquier tópico que queramos investigar, permitiendo elegir entre varias plantillas e incluyendo gráficos, archivos multimedia, enlaces. Después se pueden hacer públicas y compartir. ¿Competir con la Wikipedia? PERPLEXITY
Toda la industria tecnológica aguarda expectante las novedades que Apple presentará en WWDC 2024. Es seguro que toda la estrategia de dispositivos y servicios girará en torno a la IA, incluidos acuerdos con OpenAI. Para conocer detalles, hay que esperar hasta mañana lunes. BLOOMBERG
De tanto en cuanto, un investigador da un portazo en OpenAI y amenaza en twitter con la inminente llegada de una superinteligencia que puede acabar con la raza humana. Pero también podríamos considerar la hipótesis contraria: que jamás desarrollemos una IA que tenga un nivel humano de inteligencia. LINK
¿Y si en lugar de asistir a esa reunión telemática que nos interesa menos, mandamos a nuestro clon IA que podría llegar has a tomar decisiones en nuestro lugar? Mejor aún si antes de la reunión finetuneamos a nuestro avatar, ajustando nuestro LLM personal. No es ficción: es la visión del futuro de la IA en el trabajo de Eric Yuan, CEO de Zoom. THE VERGE
Para los "muy cafeteros": un paper de introducción a los VLM (Visual Large Models), modelos que redefinirán nuestra relación con la tecnología a través de la interacción visual. ARXIV
Y otro para cafeteros, por si quieres aprender más sobre cómo se construyen y se optimizan los sets de datos con los que se entrenan los modelos de lenguaje. LINK
Asana ha presentado AI Teammates, agentes que trabajan al lado (o bajo la supervisión) de empleados humanos que delegan tareas en ellos. De momento es una beta dirigida a trabajos administrativos y de seguimiento. TECH CRUNCH