En Silicon Valley, algunas de las mentes más brillantes creen que una Renta Básica Universal (UBI), que garantiza a las personas pagos ilimitados en efectivo, les ayudará a sobrevivir y prosperar a medida que la tecnología avanzada impulsa más carreras como las conocemos, desde trabajos administrativos y creativos hasta la eliminación: abogados, abogados, periodistas, artistas, ingenieros de software – a puestos de trabajo. La idea ha ganado suficiente impulso como para que se hayan lanzado docenas de programas de ingresos garantizados en ciudades de EE. UU. desde 2020.
Pero incluso Sam Altman, el director ejecutivo de OpenAI y uno de los defensores de más alto perfil de UBI, no cree que sea una solución completa. Como dijo durante una reunión a principios de este año: “Creo que es una pequeña parte de la solución. Yo creo que es genial. pienso como [advanced artificial intelligence] cada vez más involucrados en la economía, debemos asignar riqueza y recursos mucho más de lo que tenemos, y eso será importante con el tiempo. Pero no creo que eso solucione el problema. No creo que eso tenga sentido para la gente, no creo que la gente vaya a dejar de intentar crear y hacer cosas nuevas y lo que sea. Así que lo consideraría una tecnología fundamental, pero no un modelo para la sociedad”.
La pregunta que surge es cuál debería ser un modelo para la sociedad entonces, y el científico informático Jaron Lanier, uno de los fundadores en el campo de la realidad virtual, escribe en el New Yorker de esta semana que la “dignidad de los datos” es una parte aún mayor de la solución que podría ser .
Aquí está la premisa básica: en este momento, en su mayoría, damos nuestros datos de forma gratuita a cambio de servicios gratuitos. Lanier argumenta que en la era de la IA, debemos dejar de conectar los modelos poderosos que actualmente se abren camino en la sociedad con “las personas” que tienen mucho que ofrecerles y de quienes incluso pueden aprender.
La idea es que a la gente “se le pague por lo que crea, aunque sea filtrado y recombinado” y se convierta en algo irreconocible.
El concepto no es completamente nuevo, ya que Lanier introdujo por primera vez la noción de dignidad de los datos en un artículo de Harvard Business Review de 2018 titulado “A Blueprint for a Better Digital Society”.
Como escribió en ese momento con el coautor y economista Glen Weyl: “[R]La retórica del sector tecnológico apunta a una próxima ola de subempleo en inteligencia artificial (IA) y automatización”. Pero las predicciones de los defensores de la RBU “dejan espacio para solo dos resultados”, y son extremas, observaron Lanier y Weyl. “O habrá pobreza masiva a pesar de los avances tecnológicos, o mucha riqueza tendrá que estar bajo control nacional central a través de un fondo social para proporcionar a los ciudadanos un ingreso básico universal”.
El problema es que ambos “concentran demasiado el poder y socavan o ignoran el valor de los creadores de datos”, escribieron.
desentrañar mi mente
Por supuesto, dar a las personas la cantidad correcta de crédito por sus innumerables contribuciones a todo lo que existe en línea no es un desafío fácil. Lanier admite que incluso los investigadores de dignidad de datos no pueden ponerse de acuerdo sobre cómo desentrañar todo lo que los modelos de IA han ingerido, o qué tan detallada debe intentarse una contabilidad.
Aún así, cree que podría hacerse, gradualmente. “El sistema no necesariamente daría cuenta de los miles de millones de personas que han hecho contribuciones ambientales a modelos grandes, por ejemplo, aquellos que han aumentado la competencia simulada de un modelo con la gramática”. vez que “más gente se involucre” y “empiecen a desempeñar un papel”.
Desafortunadamente, incluso si hay voluntad, se avecina un desafío más inmediato: la falta de acceso. Aunque OpenAI había publicado algunos de sus datos de entrenamiento en años anteriores, desde entonces ha cerrado el kimono por completo. Cuando Greg Brockman describió los datos de entrenamiento para el modelo de lenguaje grande más nuevo y poderoso de OpenAI, GPT-4, a TechCrunch el mes pasado, dijo que provenían de una “variedad de fuentes de datos autorizadas, creadas y disponibles públicamente, que pueden incluir información personal”, pero se negó a ser más específico.
Como señaló OpenAI al lanzar GPT-4, el conjunto tiene demasiados inconvenientes cuando revela más de lo que revela. “Dado el panorama competitivo y las implicaciones de seguridad de los modelos a gran escala como GPT-4, este informe no proporciona más detalles sobre la arquitectura (incluido el tamaño del modelo), el hardware, el cálculo de entrenamiento, la construcción de conjuntos de datos, el método de entrenamiento o similar. (Actualmente, lo mismo ocurre con todos los principales modelos de lenguaje, incluido Bard -Chatbot de Google).
Como era de esperar, los reguladores están luchando por saber qué hacer. OpenAI, en particular cuya tecnología se está extendiendo como la pólvora, ya está en la mira de un número creciente de países, incluida la autoridad italiana, que ha bloqueado el uso de su popular chatbot, ChatGPT. Los reguladores de datos franceses, alemanes, irlandeses y canadienses también están investigando cómo recopilan y utilizan los datos.
Pero como Margaret Mitchell, una investigadora de IA que anteriormente fue codirectora de ética de IA de Google, le dice al medio Technology Review, en este punto, puede ser casi imposible para estas empresas identificar los datos de las personas y extraerlos de sus modelos de eliminación.
Como explicó el medio: OpenAI estaría mejor hoy si tuviera registradores de datos integrados desde el principio, pero es estándar en la industria de IA crear conjuntos de datos para modelos de IA raspando la web indiscriminadamente y luego intercambiando algunos de ellos para limpiarlos. de estos datos.
Cómo salvar una vida
Si esos jugadores realmente tienen solo una comprensión limitada de lo que hay en sus modelos ahora, eso es todo un desafío para la propuesta de “dignidad de los datos” de Lanier, que Altman llama un “colega y amigo” en su artículo del New Yorker.
El tiempo dirá si será imposible.
Sin duda, tiene sentido encontrar una manera de otorgar a las personas la propiedad de su trabajo, incluso si está etiquetado exteriormente como “diferente”. También es muy probable que la frustración sobre quién es dueño de qué solo aumente a medida que más partes del mundo se reconfiguran con estas nuevas herramientas.
OpenAI y otros ya se enfrentan a numerosas demandas por infracción de derechos de autor de gran alcance sobre si tienen derecho a explorar todo Internet para alimentar sus algoritmos.
Quizás lo más importante, reconocer los resultados de estos sistemas de IA podría ayudar a preservar la cordura de las personas con el tiempo, sugiere Lanier en su intrigante artículo del New Yorker.
La gente necesita agencia y, en su opinión, el ingreso básico universal se reduce a “poner a todos en beneficios de desempleo para preservar la idea de la inteligencia artificial de caja negra”.
Mientras tanto, poner fin a la “naturaleza de caja negra de nuestros modelos actuales de IA” facilitaría la contabilidad de las contribuciones de las personas, lo que podría aumentar las probabilidades de que continúen contribuyendo.
Todo podría reducirse a crear una nueva clase creativa en lugar de una nueva clase dependiente, escribe. ¿Y a cuál preferirías unirte?