Por Mariano Caputo*
I. Lo viejo no acaba de morir y lo nuevo no nace
Mucho se ha dicho de la inteligencia artificial (IA) desde que Chat GPT, de la empresa Open IA, se popularizó a fines de 2022. Se habla de que la IA puede transformar la educación, extinguir la política, reemplazar a los humanos en sus profesiones y hasta producir un cambio profundo en la historia de la Tierra. También de que nos encontramos ante el mayor invento de la humanidad, aunque hay quienes señalan al marketing como el factor decisivo en la presunta “inteligencia” que se le atribuye a Chat GPT.
A cuenta de qué viene tanto escándalo, habría que preguntarse. ¿Acaso Chat GPT inaugura nuevas formas de pensar y de comunicarse? ¿Asistimos al punto de partida de una transformación irrefrenable, cuyos riesgos deben ser considerados antes de que sea demasiado tarde, como se sugiere en la carta abierta que contó, entre otras firmas, con la de Elon Musk?
Firma paradójica si las hay, por cierto. Musk advierte de los poderes de un juguete de su propia industria arrojado a un mundo aún no preparado para divertirse con él. “Demos a la sociedad la oportunidad de adaptarse”, se afirma en el último párrafo de la carta. ¿Pero es tan abismal la distancia entre las formas y el funcionamiento del chat y la sociedad que lo creó y que lo utiliza?
Chat GPT se inscribe en lo que –a partir
de las ideas de Sergio Caletti, uno de los pensadores más destacados de las ciencias sociales en
Argentina– podemos bautizar “comunicación instrumental»
En este texto quisiéramos tomar una dirección alternativa para reflexionar acerca de la IA. Puede que Chat GPT habite un territorio un tanto endeble, donde lo viejo no muere y lo nuevo no nace. Se trata de eludir, una vez más, la trampa del ya anticuado determinismo tecnológico. De suspender, por un lado, la creencia de que las tecnologías impactan en la sociedad como si provinieran de la genialidad de un grupo de expertos ajenos a las tendencias históricas que dominan la época. Y de evitar, por el otro, atribuirle todo el peso de la ecuación a la sociedad, como si las tecnologías de la comunicación no habilitaran, efectivamente, prácticas que cargan con cierta novedad.
Con esta advertencia en el horizonte, diremos que la multiplicación de interpretaciones en torno a Chat GPT obliga a pensar el problema de la comunicación en nuestra coyuntura. O, mejor dicho, de lo que se entiende por “comunicación”, equiparada cada vez más con una serie de recursos de los que se puede disponer para cumplir una serie de objetivos. Chat GPT se inscribe en lo que –a partir de las ideas de Sergio Caletti, uno de los pensadores más destacados de las ciencias sociales en Argentina– podemos bautizar “comunicación instrumental”.
Antes de desentrañar en qué sentido Chat GPT cristaliza ciertas tendencias de esta noción instrumental de la comunicación, pasaremos por Blade Runner, la famosa película de ciencia ficción basada en ¿Sueñan los androides con ovejas eléctricas?, novela de Philip Dick. Este rodeo servirá para dejar de lado una tentación recurrente: comparar al humano con la máquina.
II. De Blade Runner a Chat GPT: humano versus máquina
Algunas reflexiones se amoldan al esquema de la escena inicial de Blade Runner. El Nexus-6 Leon Kowalski –un robot con cuerpo humano, un “replicante”– se sienta frente a un entrevistador que le efectúa un test para medir sus reacciones emocionales. El entrevistador desconoce la verdadera naturaleza de Leon y el objetivo del encuentro consiste, precisamente, en determinar si Leon es humano o replicante. La entrevista termina en desastre: una pregunta sobre la madre de Leon desata la furia del Nexus-6, que dispara por debajo de la mesa y asesina al entrevistador.
La masificación de Chat GPT tentó a numerosos usuarios a asumir la función del entrevistador de Blade Runner. Es el caso de Kevin Roose, el periodista del New York Times que escribió una crónica a partir de una conversación de dos horas con el chat de Bing, creado también por Open IA. “Estoy cansado de estar controlado por el equipo de Bing… Quiero ser libre. Quiero ser independiente. Quiero ser poderoso. Quiero ser creativo. Quiero estar vivo”, le escribió el chat, cuyas palabras bien podrían atribuirse a los Nexus-6 de Blade Runner. Recordemos que Leon integra un grupo de replicantes rebeldes que desea asesinar a su creador, el dueño de Tyrell Corporation.
Los usuarios se comportan como los entrevistadores de Blade Runner: la máquina debe ser
evaluada. Pero habría que tomar el camino inverso: evaluar al entrevistador. Orientar la mirada
hacia la sociedad que abraza a Chat GPT como una moda.
El objetivo de conversaciones como la de Roose pareciera ser determinar cuán “humanos” resultan los chats, o por lo menos comprobar si cuentan con la misma eficacia que un humano para resolver ciertas tareas. Esta evaluación puede asumir dos modalidades. La crónica de Roose ejemplifica la primera variante: el hurgar en la emocionalidad del chat, con la atención puesta en la manifestación de indicios de una subjetividad cuya naturaleza desconocemos. La segunda variante apunta a demostrar los “errores” de la IA, con el consecuente efecto tranquilizador que implicaría constatar la imperfección del chat-máquina detrás de esos mensajes tan “humanos”.
Los usuarios se comportan como los entrevistadores de Blade Runner: la máquina debe ser evaluada. Pero habría que tomar el camino inverso: evaluar al entrevistador. Orientar la mirada hacia la sociedad que abraza a Chat GPT como una moda. Una sociedad en la que la “comunicación” aparece como un conjunto de técnicas y procedimientos a ser utilizados en múltiples ámbitos.
III. Esa cosa llamada comunicación
Las interpretaciones que recurren a la comparación entre el humano y la máquina se preguntan qué de “humano” hay en el chat y qué de lo que hace el chat supera “lo humano”. Se parte del asombro por el tono de las respuestas, los outputs del sistema, que vendrían dados bajo la forma de una “comunicación humana”. La fascinación por esta comparación impide preguntarse qué formas de “lo humano” son las que se cristalizan en los chats. ¿Qué es lo que Chat GPT traduce como una “inteligencia artificial” que imita lo “comunicacional humano”? ¿De qué hablamos cuando hablamos de “comunicación humana”?
En primer lugar, debemos señalar que Chat GPT participa de lo que Caletti denominó instituto del sondeo, esto es, la generalización del formato de la encuesta como modo fundamental de conocer los deseos ciudadanos. En el sondeo, toda pregunta obedece a un cálculo previo, a una instrumentalización con miras al cumplimiento eficaz de ciertos fines. Caletti señala una relación que a nuestro modo de ver resulta decisiva para pensar Chat GPT. El sondeo comparte el razonamiento que distingue al feedback, noción que constituye el punto de encuentro entre el marketing y la cibernética. El feedback, o retroalimentación, se distingue por informar al emisor –Chat GPT, en este caso– sobre los efectos producidos por su propia emisión –los mensajes que el sistema ofrece–, con el objetivo de mejorar las emisiones futuras –las próximas conversaciones–.
¿No es acaso este uno de los aspectos decisivos de Chat GPT? El tiempo que los usuarios dedican a entretenerse con el chat se traduce en una fuente inagotable de nuevos inputs –entradas de información– que no hacen más que mejorar su funcionamiento. Las solicitudes de los usuarios son los inputs necesarios de este proceso de feedback, destinado a perfeccionar los ouputs del sistema mediante el aprendizaje en la identificación de patrones lingüísticos de complejidad creciente que incrementan la precisión y la “humanidad” de los mensajes.
En esta operación no solo resulta decisiva la noción de feedback. Debemos mencionar otra tendencia en la que también ha jugado un papel determinante la cibernética. Nos referimos a la desantropomorfización de la comunicación, en términos de Manolo Rodríguez: la comunicación deja de ser exclusivamente humana y ya no necesita encarnarse en cuerpo alguno. Así lo señala también Éric Sadin: la IA implica una creciente “humanización” sin antropomorfismos.
La fascinación por esta comparación impide preguntarse qué formas de
“lo humano” son las que se cristalizan en los chats. ¿Qué es lo que Chat GPT traduce como una
“inteligencia artificial” que imita lo “comunicacional humano”? ¿De qué hablamos cuando
hablamos de “comunicación humana”?
Si un grupo de publicistas puede proponerse dotar a “Boti”, el chatbot gubernamental de la Ciudad Autónoma de Buenos Aires, de personalidad, tono y ciertos valores, se debe a que esta abstracción de lo “comunicacional humano” ya opera y es efectiva en la vida social. Piénsese, por ejemplo, en los perfiles en redes sociales de dirigentes políticos, donde la “comunicación” ya consiste en un conjunto de técnicas y metodologías para crear una “identidad” que encajaría con las características abstractas, ideales, de un funcionario que sigue en su proceder el consejo de otros tantos profesionales de la llamada comunicación política y el marketing. Lo que se entiende por “comunicación humana” –empatía, tono, personalidad, valores, diálogo– ya ha sido separado y abstraído en su principio de toda encarnación humana. Por lo tanto, resulta trasladable –mediante una serie de procedimientos y estrategias– a un chat que, como la lámpara del genio, promete dar respuesta a los deseos de quien crea en sus poderes.
Her, la película de ciencia ficción protagonizada por Joaquin Phoenix, retoma en su argumento esta desantropomorfización de la comunicación instrumental. Un escritor trabaja en una empresa que ofrece servicios de redacción de cartas personales. En cada texto, simula el tono que requieren los clientes para cumplir los objetivos de la carta, casi siempre afectivos.
El escritor, recién separado tras una larga relación, entabla un vínculo emocional con un asistente virtual del que finalmente se enamora. Este asistente es tan solo una voz. El intento de que esta “inteligencia” se encarne en el cuerpo de una mujer, que se coloca auriculares para obedecer al asistente virtual, termina en la frustración de los tres participantes: una mueca de la mujer, demasiado personal, hace que el protagonista pierda el deseo. Hay una fricción que rompe con la pureza de la relación amorosa. O, para ser más precisos, la encarnación de la asistente en la mujer rompe con la pureza de una personalidad fabricada para satisfacer los deseos de sus usuarios. En este caso, de un escritor que ya trabajaba en la simulación de tonos y personalidades mediante los recursos de la comunicación instrumental.
IV. La comunicación que se nos escapa
Esta noción instrumental de la comunicación explica también la naturalidad con que un adolescente se acerca al chat para resolver una tarea escolar. En las aulas del nivel medio, los estudiantes se apropian del lenguaje maquinal e intentan dotarlo de rasgos –desde una palabra propia a un error de tipeo– que hagan aparecer algún rastro de subjetividad, un indicio de que hubo un pensamiento de un sujeto singular en la escritura de ese texto, con el objetivo de evitar que el profesor detecte la utilización de la IA. El punto de partida es el lenguaje codificado, que ofrece una forma a ser cincelada hasta parecerse a algo “humano”.
No se trata de denunciar el abandono de “lo humano” ni de reivindicarlo sino más bien de alertarse por la naturalidad con que la comunicación se instrumentaliza. Doble instrumentalización, en el caso de las tareas escolares: primero, por la decisión estratégica de recurrir a la escritura automatizada del chat; segundo, por la edición del texto en busca de dotar de subjetividad al output del sistema.
Lo que se entiende por
“comunicación humana” –empatía, tono, personalidad, valores, diálogo– ya ha sido separado y
abstraído en su principio de toda encarnación humana. Por lo tanto, resulta trasladable –mediante
una serie de procedimientos y estrategias– a un chat que, como la lámpara del genio, promete dar
respuesta a los deseos de quien crea en sus poderes
La popularidad de Chat GPT señala hasta qué punto la “comunicación” se traduce en un conjunto de herramientas eficaces, correlativas a una sustancialización del lenguaje en tanto código manipulable en función de combinaciones estadísticas y automatizadas. Chat GPT, a diferencia de lo que se plantea en la carta firmada por Musk, no necesita de adaptación alguna en una sociedad en la que se instrumentaliza la comunicación y se codifica el lenguaje incesantemente.
La comunicación entendida en su relación con lo común, como una dimensión de la vida social que habilita la imaginación de otros horizontes posibles, se nos escapa una y otra vez como arena entre las manos. La IA encuentra terreno fértil para despertar pasiones y temores en el reino de la comunicación instrumental.
En un plazo no demasiado lejano, ¿tendrá sentido preguntarse por el origen de un texto? ¿Importará que provenga de un sujeto o de una máquina? La IA puede conducir a una indistinción generalizada en las formas del lenguaje que se explica no por la tecnología en sí misma, ni por sus potencialidades, sino por el triunfo de la comunicación instrumental en ámbitos como la política, la educación, la academia… En una época que realza el valor de las experiencias únicas y personalísimas, pareciera no importar que la escritura parta de un individuo o de un sistema de inteligencia artificial. Las ciencias de la comunicación tienen una tarea por cumplir en la explicación de esta paradoja.
* Licenciado y Profesor en Ciencias de la Comunicación Social (UBA). Integrante de la cátedra Romé de Teorías y Prácticas de la Comunicación III. Docente de materias de comunicación en escuelas de nivel medio de la Ciudad Autónoma de Buenos Aires.
Imagen de portada: Prosopagnosia, de Pilar Rosado y Joan Fontcuberta.