ChatGPT apareció por primera vez hace poco más de un año. Desde entonces muchos sectores han comenzado a utilizar esta herramienta para reemplazar algunas tareas antes desarrolladas por personas, o para ofrecer un nuevo método que ayude a la gente a encontrar respuesta a sus preguntas.
A pesar de que estos cambios se hacen en nombre del futuro, ninguno de los actores involucrados parece considerar que esta tecnología está lejos de ser perfecta. Los LLM no son compañeros de conversación ni sirven como herramientas para resumir contenido. Lo único que pueden hacer es generar lenguaje, con un riesgo considerable de plagio.
Para entender que éstos no son sólo pequeños baches que ir perfeccionando, sino parte de la naturaleza misma de estas tecnologías, tenemos que analizar primero qué son en realidad los LLM.
No queremos enrollarnos mucho, así que será una explicación breve, aplicable a todos los LLM populares.
¿Qué son los LLM?
Los LLM son modelos que reflejan un lenguaje escrito. Para desarrollarlo, se analizan una gran cantidad de fuentes, y su objetivo principal es describir qué palabra tiene más probabilidad de seguir a otro grupo de palabras. Hay algo de aleatoriedad en el sistema para que parezca más interesante, y el lenguaje que se produce es filtrado por otro segundo modelo que determina si ese lenguaje suena bien. En muchas ocasiones, este segundo modelo ha sido desarrollado mediante la participación de una enorme cantidad de gente con salarios bajísimos, que lee los textos producidos por el primer modelo y selecciona aquellos que suenan más naturales.
Llegados a este punto se presentan dos problemas principales:
- Infracciones de derechos de autor y privacidad Para aprender qué palabra suele usarse después de otras palabras, hay que analizar muchísimo texto. Cuanto más texto, mejor; más preciso será el resultado. Además, gran parte del texto debe ser relativamente reciente, para reflejar el uso actual del idioma. Por ello, hay un gran incentivo para consumir texto de todas las fuentes recientes que haya disponibles, desde redes sociales a artículos y libros. ¿Esto qué significa? Que es posible que el texto que entra en el modelo sea repetido palabra por palabra cuando alguien use estas herramientas. Esto sucede cuando para una secuencia de entrada determinada, no hay mejor opción que simplemente repetir el texto original. Si esto sucede, estos modelos pueden repetir contenido protegido por derechos de autor, incurriendo en plagio. De manera similar, el texto que proviene de redes sociales puede contener información privada que también puede ser regurgitada. Algunas personas han descubierto la manera de obtener este tipo de resultados, y por ahora no parece posible proteger esta información de ninguna manera.
- Mentiras que suenan plausibles El texto de los LLM procede en gran parte de internet. Esto significa que puedes encontrarte textos mal escritos, información falsa o contenido ofensivo. En fases tempranas de experimentación, los chatbots empezaron a usar lenguaje ofensivo, confirmando que la tecnología aún no estaba suficientemente desarrollada. Es por ello que se añadió un segundo nivel de comprobación a los modelos modernos, para filtrar los resultados. Por desgracia, y como mencionábamos antes, esta segunda fase es solo posible gracias al trabajo de personas que examinan miles y miles de textos. Ni la gente más sabia del mundo podría comprobar la veracidad de todo lo que estos textos dicen, y si pudieran, no podrían anticipar el resultado que el LLM generaría a partir de eso. Lo único para lo que sirve esta fase de filtrado, es para controlar el tono. ¿Y qué pasa? Que así se suele favorecer un tipo de texto que a la gente le gusta leer: afirmaciones que no dejan lugar a dudas, sin importar la veracidad de las mismas. El modelo acertará con la información más conocida, pero el resto serán especulaciones. La mayoría de las veces terminarán diciendo medias verdades, como si de un político se tratase.
Nos dejamos llevar por nuestros principios
Como hemos visto, los LLM son simplemente máquinas que pueden propagar mentiras, a pesar de sonar como una fuente fiable, y además pueden revelar información privada o plagiar el trabajo de otros. Para ello, también usan una gran cantidad de energía y consumen toda la GPU que estés dispuesto a sacrificar: un problema que ya hemos visto recientemente en el campo de las criptomonedas.
Es por todo ello que no nos parece pertinente integrar este tipo de tecnología en Vivaldi. Ya hay suficiente desinformación ahí fuera y no queremos contribuir a su difusión. No vamos a usar los LLM para añadir un chatbot, una herramienta para resumir contenido o un motor de sugerencias que rellene formularios por ti. Por lo menos hasta que la tecnología sea más rigurosa. Pero como siempre, en Vivaldi abogamos por la libertad de elección, por lo que seguirá siendo posible utilizar cualquier LLM que se quiera de manera online.
A pesar de todo esto, creemos que este campo es apasionante y puede generar grandes avances en un futuro. Esperamos que la tecnología mejore para permitirnos ofrecer funcionalidad que mejore la accesibilidad, al tiempo que respete la privacidad de nuestros usuarios.
Seguiremos trabajando para ofrecer una experiencia de navegación cargada de funcionalidad, sin perder de vista la ética.