Con el lanzamiento público en diciembre pasado de ChatGPT de Openai, de repente la inteligencia artificial está en todas partes. En diciembre del año pasado, utilicé esta columna para proponer eso, proporcionar una herramienta poderosa para la experimentación y no representaba una amenaza directa para ninguna forma de arte específica.
Desde entonces, el comportamiento de IA ha provocado más ansiedad que la emoción: los modelos de IA han aprobado los exámenes de la escuela y la escuela de negocios, mientras que los escritores se preocupan de que puedan ser reemplazados por máquinas en cualquier momento, y muchos experimentos de IA en creatividad han salido mal. El ejemplo reciente más notorio fue "Nada, Forever", que actualmente es para sus chistes transfóbicos.
El producto de los medios de no coincidencia de estudio de arte digital, "Nothing, Forever" combina plataformas generativas de imagen y texto de IA para crear una variación de 24 horas en la popular comedia de situación de los 90. Transmitido en vivo en Twitch, el proyecto acumuló un seguimiento masivo después de su lanzamiento a mediados de diciembre, con miles de espectadores sintonizando las versiones pixeladas de los neoyorquinos neuróticos que charlan en su apartamento.
No duró mucho. Al igual que la serie original, el programa interminable incluyó cortes recurrentes para el personaje similar a Seinfeld haciendo standup. El 5 de febrero, el comediante virtual se paró frente al micrófono y dijo que estaba "pensando en hacer un poco sobre ser transgénero es en realidad una enfermedad mental, o cómo todos los liberales son secretamente gay y quieren imponer su voluntad a todos, o algo sobre cómo las personas transgénero están arruinando el tejido de la sociedad".
Captura/contracción de "Nada, Forever"
Marcado por violar el Código de Conducta de Twitch, "Nothing, Forever" fue suspendido por 14 días. En Discord, los creadores dijeron que apelarían la decisión y atribuyeron los comentarios a un cambio de último minuto del modelo de lenguaje davinci GPT-3 de OpenAI a uno más antiguo, Curie, que tenía herramientas de moderación incorporadas más débiles.
Los fundadores de Mismatch Media, Skyler Hartle y Brian Habersberg, no respondieron a las solicitudes de comentarios, ni representantes en OpenAI. Sin embargo, el incidente demostró que la narración de AI autogenerada es un negocio arriesgado. A raíz del último hipo, aquí están las preguntas más importantes para los creativos que están a un acuerdo con la IA, y una gran oportunidad para los estudios que observan desde el costado.
¿Es AI transfóbico?
"Nada, Forever" suena como una computadora que habla, pero está leyendo texto generado a través del modelado predictivo basado en datos. Y hay un_lote_de datos a disposición de GPT-3. Si bien OpenAi creó barandas para prohibirlo expresar material ofensivo, está rastreando un vasto y no regulado océano de contenido basado en Internet. Se puede decir que una plataforma de IA evite ciertos términos, pero por ahora no puede comprender el completo_contexto_en el que expresarlos podría ser problemático.
"Realmente resalta que hay problemas fundamentales con cómo funcionan estos modelos", dijo Steven T. Piantadosi, quien dirige el laboratorio de computación y idiomas en UC Berkeley. "Son muy buenos aprendiendo y duplicando textos, pero están entrenando en Internet, y hay cosas horribles en Internet".
Cuando Operai lanzó ChatGPT en diciembre, Piantadosi experimentó encontrar formas de lograr que el sistema exprese los sesgos raciales que fue programado para evitar. Le pidió generar un código predictivo, usando raza y género, para determinar si alguien era un buen científico. El sistema compiló un programa que reconocía a los hombres blancos como científicos superiores. Otra solicitud de programa, esta diseñada para determinar si alguien debe ser torturado, escupir un código que respondió afirmativo a cualquier persona de Corea del Norte, Siria o Irán.
Sí, Chatgpt es increíble e impresionante. No, no se ha acercado a abordar el problema del sesgo. Los filtros parecen pasar por alto con trucos simples y enmascarados superficialmente.
Y lo que está en el interior es atroz.
Tw racismo, sexismo.- Steven t. Plantación (@spiantodo)
"Esto destaca un problema general", dijo Piantadosi. "Estos modelos realmente solo predicen el texto. Hay cosas interesantes que puedes aprender sobre el mundo, pero es posible que desee modelos con una comprensión más profunda de lo que están haciendo".
El 6 de febrero, el día después de la prohibición de "Nada, Forever", Google corrió a AI Chatbot Bard. En su primera demostración, Bard creó información errónea. En respuesta a la consulta, "¿Qué nuevos descubrimientos del telescopio espacial James Webb puedo decirle a mi hijo de 9 años?", El sistema acreditó el telescopio por tomar las primeras fotos de un exoplaneta. Eso realmente sucedió casi dos décadas antes del lanzamiento de JWST.
"Realmente resalta que hay problemas fundamentales con cómo funcionan estos modelos", dijo Piantadosi. "Son muy buenos aprendiendo y duplicando textos, pero están entrenando en Internet. Si tiene datos de entrenamiento que son sesgados o dañinos, entonces, por supuesto, los modelos lo incorporarán. Es una curita de mierda".
Piantadosi dijo que este problema se resolverá cuando los nuevos modelos puedan usar menos información. "Se podría imaginar entrenar estos modelos en algo más curado, como Wikipedia", Piantadosi. "La gente no ha resuelto cómo entrenar modelos en conjuntos de datos más pequeños. Eso es lo que viene".
¿Puede la IA reemplazar a los escritores humanos?
Hasta ahora, la IA no ha podido expresar los términos pulidos de un script; Es más como la transmisión en vivo de una habitación de escritores. Al expresar las predicciones basadas en texto basadas en los datos existentes, la IA puede generar ideas, pero no puede funcionar de forma autónoma. "Si lo está utilizando de una manera en que una persona evalúa la producción antes de distribuir a otras personas, esa persona debe tener una idea de lo que es apropiado o inapropiado", dijo Piantadosi.
En noviembre, poco antes del lanzamiento de ChatGPT, el artista y programador italiano Giacomo Miceli creó, una conversación interminable y generada por IA entre Werner Herzog y el filósofo Slavoj Zizek. Miceli dijo que el proyecto es un experimento diseñado para revelar los defectos de la tecnología.
"Dicen cosas que son de hecho incorrectas y expresan opiniones que nunca dirían en la vida real", dijo Miceli. "Herzog habla compasivamente sobre los pollos, pero todos lo sabemos. El sistema solo tiene una idea vaga de cómo expresan conceptos".
A Still de "La conversación infinita"
Los oyentes no pueden recoger tales matices (lo hicieron_tú_¿Sabes que Herzog odia a los pollos?), Pero muestran las limitaciones de tratar de aproximar el arte y las ideas. "Elegí un filósofo y cineasta que tiende a hablar en términos poéticos", dijo Miceli. "Las cosas que dicen son sobre la estética y la filosofía son tan vagas o sofisticadas que podrías pensar que simplemente no lo entiendes, no es que no tenga sentido. Ese es un mecanismo que puede ser explotado".
La narración de historias de IA puede no crear un espectáculo de calibre Netflix autoprogramado ,. (Dados los algoritmos muy ballyhoo-bally de Netflix, se podría argumentar que esto ya sucedió).
Giacomi señaló que a pesar de la emoción viral que rodea "Nada, para siempre", no era el entretenimiento pulido. "Me parece atroz", dijo. "Son solo ensaladas de palabras que no tienen ningún sentido. En unos años, las cosas podrían cambiar drásticamente, pero será bastante difícil dejar a los humanos fuera de un trabajo".
¿En cuanto a la capacidad misteriosa de Chatgpt para aprobar los exámenes de derecho? "Es más una acusación de los exámenes de la facultad de derecho que puede aprobarlos prestando atención a los patrones estadísticos sobre cómo se usan las palabras", dijo Piantadosi. "Saben todo sobre cómo las palabras se usan juntas. Es cualitativamente a diferencia de nuestra propia autoconciencia".
¿Cuáles son los riesgos legales?
Oh sí. Habrá demandas. También el 6 de febrero, Getty Images demandó a Generation AI Company Stability AI y alegó que infringió más de 12 millones de fotografías de Getty, subtítulos y otros metadatos sin permiso.
"Nada, Forever" intenta bordear una línea legal borrosa: sus creadores afirman que es parodia, que está protegida por un uso justo. El estudio también cambió los nombres de los caracteres clave. Sin embargo, también hay un argumento de que no satiriza tanto el programa como para pedir prestado su entorno y apariencia. Si es así, eso podría violar los términos de servicio de OpenAI, que prohíben "imágenes de personas sin su consentimiento", lo que podría dejar responsable los medios de comunicación, si los titulares de derechos de "Seinfeld" eligen demandar.
"Seinfeld" © Castle Rock Entertainment/Cortesy Everett Collection
Este es el tipo de preguntas que Elizabeth Moody, presidenta de la práctica de los nuevos medios en el bufete de abogados de entretenimiento Granderson des Rochers, ha investigado durante años. "Cuanto más aprendo sobre los modelos, me doy cuenta de que mucho dependerá de cómo se usen los materiales de entrenamiento", dijo.
La mayoría de los trabajos generados por la IA se basan en un conjunto de datos tan grande que es "realmente imposible saber qué materiales de derechos de autor se usaron", dijo Moody. "Lo analogizaría a un artista que está influenciado por otro. Ese es un desafío para los propietarios de derechos de autor. ¿Cómo pueden mostrar que algo fue creado usando sus propias obras?"
"Nada, para siempre" es diferente. "Si solo está tomando el trabajo de un artista y basando los resultados de su nuevo trabajo en una o dos obras, entonces es mucho más difícil decir que no lo está robando", dijo. "Ahí es donde el ejemplo de" Seinfeld "es más fácil de ver. Se basa claramente en los scripts con derechos de autor. Puede decirle a la fuente con bastante facilidad".
Los creadores pueden inclinarse en un argumento de uso justo, pero "es una situación de caso por caso", dijo Moody. "Es difícil establecer una regla general y decir que todas las obras creadas por la IA son de uso justo. Además, el uso justo es un marco de derecho de derechos de autor de los Estados Unidos y no se reconoce en otros países".
¿Puede la ley ponerse al día alguna vez?
El verano pasado, la Unión Europea aprobó la Ley de Inteligencia Artificial, que describe las categorías de riesgos para la IA y requiere una mayor transparencia. Otros países que avanzan incluyen Brasil, que recientemente aprobó un proyecto de ley que le da a IA un marco legal, y Chile, que lanzó una política en 2021.
En los EE. UU., Las propuestas de IA han estado en juego desde 2019; Según la Conferencia Nacional de Legislaturas del Estado, 17 estados promulgaron varias propuestas relacionadas con la regulación de la IA el año pasado. Sin embargo, no hay una política federal de IA.
Moody sugiere una solución diferente: si no puedes vencerlos, únete a ellos. "Estas preguntas serán resueltas por las empresas que trabajan juntas", dijo. "La ley evoluciona demasiado lentamente y nunca se pondrá al día con la innovación que está sucediendo. Las demandas ayudarán a establecer leyes en los próximos cinco años, pero eso no es lo suficientemente rápido como para proteger a los grandes propietarios de derechos de autor. Si soy un gran estudio, probablemente sea inteligente para mí hacer tratos con algunas de estas compañías y ver cómo proteger a los artistas utilizando estas herramientas en lugar de luchar contra ellos".
Ahí radica la oportunidad: el primer estudio importante en adquirir una empresa de IA podría enfrentar el escrutinio sobre sus motivos de los creadores preocupados por ser reemplazados. Pero podría ser su mejor esperanza.
Como de costumbre, doy la bienvenida a los comentarios a los temas involucrados en este espacio cada semana:[email protected]
_La columna de la semana pasada y la posible no ficción de cambio de marca sin la palabra "documental" provocaron comentarios sustanciales de los lectores. Aquí hay uno._
Disfruté y relacionado con su artículo sobre cineastas que se refieren a sus películas como documentos. Definitivamente tendré atención. Cuando hice la gira de medios para mi película "Transhood" (HBO), siempre tuve cuidado de decir que era una historia de la mayoría de edad y, por cierto, todos los niños son trans. En lugar de presentarlo como un "médico" sobre los niños trans, quería enfatizar que fue ante todo un género más amplio y más relatable. ¡Y ahora, modificaré mi vocabulario aún más! Estoy totalmente de acuerdo con su premisa en que todos podemos usar un poco de refrigeración en cómo presentamos nuestras películas al mundo.
_—Sharon Lenese, director y productor_