Javier Padilla

El blog de Javier Padilla

thehatch

Cofundador de Nabumbu, El Desmarque y otras historias. Programé mi primera web en 1997 y, desde entonces, diseño, programo, escribo y hago marketing online decentemente.

Sobre Periodismo y Robótica

De todas las negaciones del ser humano, aquellas que se vinculan a la incapacidad del mismo para crear máquinas más avanzadas que él son las que más me fascinan. Suponen la aceptación del hombre como creación perfecta, y eso, lejos de ser una realidad, incluye una absurda contradicción: nuestro cerebro es inmejorable así que, ¿cómo no va a poder crear algo mejor que él?

La amenaza de la robótica es un tema de actualidad, así que es el momento de ver en bucle el vídeo de Animatrix Scene Historical File.

Las Tres leyes de la robótica —conjunto de normas escritas por Isaac Asimov— establecen lo siguiente:

1.- Un robot no hará daño a un ser humano o, por inacción, permitir que un ser humano sufra daño.

2.- Un robot debe obedecer las órdenes dadas por los seres humanos, excepto si estas órdenes entrasen en conflicto con la primera ley

3.- Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la 1ª o la 2ª Ley.

La primera de las tres leyes deja claro el espíritu de las mismas: que una creación del hombre no acabe con él mismo. Se trata de una ensoñación en la que se parte de una premisa falsa: el ser humano hace cosas lógicas y siempre es bueno.

Por eso, en 2011, el Consejo de Investigación de Ingeniería y Ciencias Físicas (EPSRC) y el Consejo de Investigación de Artes y Humanidades (AHRC) publicaron cinco principios éticos para “diseñadores, constructores y usuarios del mundo real” que se relacionaran con la robótica:

1.- Los robots no deben ser diseñados exclusiva o principalmente para dañar o matar a humanos.
2.- Los seres humanos, no los robots, son los agentes responsables. Los robots son herramientas diseñadas para lograr los objetivos humanos.
3.- Los robots deben ser diseñados de forma que aseguren su protección y seguridad.
4.- Los robots son objetos, no deben ser diseñados para aprovecharse de los usuarios vulnerables al evocar una respuesta emocional o dependencia. Siempre debe ser posible distinguir a un robot de un ser humano.
5.- Siempre debe ser posible averiguar quién es el responsable legal de un robot.

Al no ser leyes de la naturaleza y sí “principios éticos” tenemos todos claro que esto no tiene mucha más utilidad que la asignatura de Ética y Deontología Profesional en la carrera de Comunicación.

Hace ya algunos años que las agencias de comunicación estadounidenses experimentan con robots que escriben noticias. No se trata de engendros cibernético con cuerpos metálicos, sino de granjas de ordenadores que realizan millones de combinaciones en tiempo real, alternando múltiples fuentes contrastadas de datos y dando lugar a discursos informativos correctos aplicados, principalmente, al mundo de la economía y la bolsa.

Creedme, lo que hacen no es algo demasiado complejo.

Un ordenador solo “sabe” hacer operaciones aritméticas simples. Lo que ocurre es que hace decenas de millones de ellas en un segundo, y eso da lugar a muchas opciones interesantes de cara a la automatización de tareas.

Y es que el primer contacto que tenemos con el periodismo robotizado está basado en la automatización. Poco más. Se reciben datos de cotizaciones, palabras clave y se mezcla todo con un algoritmo redaccional que elabora teletipos a razón de 2.500-3.000 cada día. Sensacional, ¿no? No, probablemente, para los periodistas que hacían antes esa labor.

Si eres un contador de historias, párate por un momento a ver tu trabajo y piensa si es o no automatizable. Pongo algunos supuestos.

1) Periodista que recibe notas de prensa, las edita, añade una foto y sube a una web.

2) Periodista que recibe información de fuentes normalizadas —bolsa, meteorología…— y crea informes a medida para distintos receptores.

3) Periodista que acude a una rueda de prensa, graba a un sujeto en vídeo y crea, con ello, un producto informativo descriptivo.

4) Periodista que genera información de una gran corporación desde un gabinete controlado por la cúpula de la compañía.

5) Periodista que rellena páginas en medios impresos —u otros en los que el soporte tiene áreas de contenido de tamaño limitado— recibiendo datos de agencias.

Todos esos casos son 100% automatizables a corto plazo. El 3) está bastante avanzado, por lo que dentro de poco no solo habrá un presidente del gobierno hablando por un plasma, sino también periodistas —o “asistentes de estos”, como veréis más abajo— representados por un dispositivo.

Entonces la salvación estaría en crear, como dice Ramón Salaverría, contenido original, con estilo y mirada propia, ¿no?

Volvamos al inicio. Un robot o un algoritmo pueden llevar a cabo cualquier trabajo que sea “matematizable”.

¿Son la “originalidad” o el “estilo” conceptos que puede replicar un ordenador? Sí.

Si hubiera que crear una fórmula matemática que defina la “originalidad” como una cifra relativa, esta debería tener en cuenta algo así:

-Nº total de resultados de búsqueda de un tema en Buscadores
-Nº total de resultados críticos/interpretativos en una búsqueda de ese tema
-Nº de publicaciones sobre ese tema en Redes Sociales
-Nº de vídeos sobre el tema en Youtube/Soundcloud/…
-Tiempo de aparición del tema (como factor de degradación de la originalidad o de amplificador cuando este quede ya muy lejano en el tiempo y las variables anteriores “acompañen”).

Cualquier matemático podría adecentar mi burdo planteamiento hasta elaborar una fórmula que defina la “originalidad” con un porcentaje de acierto extraordinario.

Hecho esto, solo hay que convertirlo a código, enchufar fuentes de datos y tendríamos una “inteligencia” que nos diría cuán original (o no) puede ser un tema propuesto.

Si el ordenador es capaz de discernir sobre la originalidad, puede proponer en un segundo 10 millones de temas y permitirse que 9.999.999 no sean originales. Esta es la realidad.

Gracias a los “Me Gusta”, “+1”, “RT”, “FAV”, etcétera, existe una barra de medir interesante sobre lo que puede o no resultar relevante. Se puede argumentar en contra que hay tuits con 10.000 FAVs que son humorísticos y no informativamente relevantes. Por suerte, esos tuits tienen menciones y respuestas del tipo “JAJAJA”, “xD” o “Me parto” que ayudan a determinar el tono de su contenido y, si es necesario, se pueden desechar.

Las redes sociales guardan tanta información relevante sobre nosotros que, dentro de poco, Facebook podrá predecir un divorcio con una fiabilidad del 90%… tres meses antes de que ocurra.

En el caso del “estilo del periodista”, solo hay que poner a un algoritmo a analizar miles de cadenas de texto por segundo, encontrar patrones y determinar, por ejemplo, que un escritor determinado utiliza un % de adjetivos en sus frases superior a la media, no gusta de hacer párrafos de más de 100 palabras, que utiliza un determinado adverbio con más frecuencia que otros y bla bla bla.

Finalmente, entra la Inteligencia Artificial. Si nos fijamos, hasta ahora hablamos mucho de análisis de patrones y automatismos basados en fuentes de datos confirmados. Pero, ¿son esos productos informativos resultantes atractivos? Probablemente no…en un principio.

Si se conectan esos resultados a una herramienta de analítica web y se estudia el tiempo medio de lectura de cada artículo, el % de scroll vertical en cada artículo, el número de veces que se comparte, etcétera, se puede saber hasta si hay temas que fidelizan más a los lectores que otros y poner a las máquinas a redactar más en esa línea.

El punto débil del algoritmo serían las fuentes fiables. Por eso los proyectos orientados al periodismo de “Fact-Check” tienen cada vez más valor. En eso trabaja Circa News, por citar un proyecto.

¿Qué condiciones se dan en un texto “cierto”? Varias fuentes fiables hablan de él.
¿Se pierde inmediatez? Depende de la tolerancia a la certeza que se le asigne al algoritmo. A menor rigidez, más capacidad para que el rumor entre en la espiral, y viceversa.

¿Dudas sobre todo lo que hemos contado? Echad un vistazo a Narrative Sciences y observad como Forbes, Deloitte, Master Card o Credit Suisse son clientes suyos. El valor de la compañía se define muy bien en este post, titulado “¿Robots como asistentes o como reemplazo?

“Aunque ahora pueda sonar extraño, solía haber un grupo de personas inteligentes y bien informadas que se oponían al proyecto del genoma humano. Pensaban que aunque pudiéramos recolectar toda la información genética, nunca sería útil. Los biólogos nunca podrían utilizar esa montaña de datos para encontrar algo que les permitiera comprender la biología humana. Esta postura no fue aceptada por un grupo de escépticos, pero sí era la apoyada por esas personas inteligentes y bien intencionadas […]

Avancemos rápidamente hasta el presente, cuando la genética continúa revolucionando la medicina y la biología para permitir tratamientos médicos mucho más personalizados y efectivos. ¿Qué ha ocurrido con esa corriente mayoritaria opositora?

La razón más importante que podemos dar es que las máquinas ahora pueden buscar patrones toda esa información; patrones que indican las localizaciones donde los biólogos deben dirigir su atención. Esas máquinas elaboran teorías que un biólogo experimentado puede investigar, lo que evita que desperdicie su tiempo llegando a callejones sin salida.

Los biólogos pueden pasar su tiempo haciendo tareas mucho más importantes porque la máquina que la asiste en su investigación revela cuáles son las líneas más interesantes, a una gran velocidad y a gran escala. La biología se ha revolucionado por máquinas que son asistentes para los biólogos, no sus sustitutos. […]

Por eso, cuando la gente debate sobre lo que ocurre cuando la inteligencia artificial llega a los lugares de trabajo, no es necesario especular sobre si las máquinas se llevarán nuestro puesto o si serán irrelevantes. Nosotros ya hemos comprobado qué ocurre y no es ninguno de esos dos supuestos. La Inteligencia Artificial como ayudante se convertirá en una parte cada vez más integral de nuestro trabajo”.

De todo el texto, que me parece muy interesante, me quedo con una frase: “…la máquina que le asiste en su investigación puede revelar cuáles son las líneas más interesantes”.

Por lo tanto, los robots no solo nos ayudarán en tareas automatizables, sino que irán aportando su Inteligencia Artificial a nuestros procesos para ayudarnos a hacer cada vez productos más complejos y satisfactorios para el usuarios.

La respuesta a “¿Sustituirán los robots a los periodistas?” tiene para mí una respuesta clara: , si comprendemos la profesión periodística como ese trabajo semi-robótico que realizamos hoy (ir a ruedas de prensa, copiar teletipos y editarlos, etcétera).

Si pretendemos crear nuevos productos informativos ‘mutables’ —habrá que redefinirlos cada poco tiempo de acuerdo a las nuevas necesidades de los usuarios— entonces la respuesta esNo”. Los robots serán, como en biología o ingeniería, nuestros grandes asistentes.

Eso sí, que nuestro ego no nos impida darle su parte del Pulitzer a una máquina.

Author: Javier Padilla

Share This Post On

Submit a Comment

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Uso de cookies

Este sitio web utiliza cookies para que usted tenga la mejor experiencia de usuario. Si continúa navegando está dando su consentimiento para la aceptación de las mencionadas cookies y la aceptación de nuestra política de cookies, pinche el enlace para mayor información.

ACEPTAR