Culturómica I: Cultura y lenguaje

Pedro García Barreno

Resumen


La Inteligencia Artificial (IA) es una de las fuerzas más transformadoras de nuestro tiempo. Si bien puede haber debate sobre si la IA transformará nuestro mundo para bien o para mal, algo en lo que todos estamos de acuerdo es que la IA no sería nada sin los datos masivos o macrodatos. Big data e IA se consideran dos gigantes. El aprendizaje automático se considera una versión avanzada de la IA a través de la cual las computadoras inteligentes pueden enviar o recibir datos y aprender nuevos conceptos mediante el análisis de los datos sin asistencia humana. El Gran Colisionador de Hadrones, por ejemplo, generará unos 15 petabytes de datos al año. Eso no es nada comparado con lo que sucede cuando mapeamos un cerebro completo, lo que implicará alrededor de un millón de petabytes de datos. La astronomía, la química, los estudios climáticos, la genética, el derecho, la ciencia de los materiales, la neurobiología, la teoría de redes o la teoría de partículas son solo algunas de las áreas que ya están siendo transformadas por grandes bases de datos. Ahora esta revolución está llegando a las humanidades. El programa de libros masivos de Google, que ha digitalizado millones de libros, ha desarrollado una aplicación que brinda a los investigadores acceso a una base de datos de miles de millones de palabras en varios conjuntos de idiomas y dos siglos: «datos grandes y extensos». El programa de Google N-gram Viewer hace más que brindar una mirada única a la historia de las palabras. Promete cambiar la forma en que los historiadores hacen su trabajo y cambiar nuestra imagen de la historia misma. Un nuevo tipo de alcance, big data, va a cambiar las humanidades, a transformar las ciencias sociales y a renegociar la relación entre el comercio mundial y la «torre de marfil». Paralelamente, la arquitectura cognitiva juega un papel vital al proporcionar planos para construir sistemas inteligentes que admitan una amplia gama de capacidades similares a las de los humanos. La arquitectura de red neuronal para aprender vectores de palabras puede manejar más de 100 mil millones de palabras en un día. Una traducción automática neuronal (NMT) traduce entre varios idiomas, y también puede aprender a realizar puentes implícitos entre pares de idiomas nunca vistos (traducción a ciegas –zero-shot translation–) explícitamente durante el entrenamiento, lo que demuestra que el aprendizaje de transferencia y la traducción a ciegas son posibles para la traducción neuronal. Un marco de entrenamiento novedoso para agentes de diálogo con base visual –aprendizaje de refuerzo profundo (RL) para aprender de extremo a extremo en un mundo sintético completamente sin conexión a tierra, donde los agentes se comunican a través de símbolos sin significados preestablecidos– mostró que dos bots inventan su propio protocolo de comunicación sin supervisión humana; ¿tabula rasa? Los agentes de RL no solo superan significativamente a los agentes de aprendizaje supervisado, sino que también aprenden a aprovechar las fortalezas de los demás, sin dejar de ser interpretables para los observadores humanos externos. Los bots parlantes –bots-talk– recuerdan a los gemelos comunicativos –twins-talk–, a la novela postestructuralista o a los lenguajes culturalmente restringidos. Los lenguajes de IA pueden evolucionar a partir de un lenguaje humano natural o pueden crearse ab initio.


Palabras clave


Aprendizaje por refuerzo, Big data (macrodatos), Lengua Beowulf, Datos fiables, Datos instantáneos, Generación de lenguaje natural, Humanidades digitales, Índice de Busa (Índice Tomístico), Índice del Ulises de Joyce, Ley de Zipf, N-gram, Programa Google

Texto completo:

PDF

Enlaces entrantes

  • No hay ningún enlace entrante.


Copyright (c) 2022 Boletín de Información Lingüística de la Real Academia Española