Less is Less

¿Y si dejamos de automatizar cosas y disfrutamos de la vida?

Un recorrido por la historia de la "IA" y una reflexión sobre qué hacer con ella

March 21, 2026

Este texto es una versión editada de la charla con el mismo título que di en T3chFest 2026 y que pronto estará disponible en vídeo. ¡Espero que os guste!

0. Auge y caída de Firefox

¿Cuál es vuestro navegador favorito?

El mío es Mozilla Firefox. Lo llevo utilizando un montón de años.

Me gusta por muchos motivos. Lo impulsa Mozilla, una fundación sin ánimo de lucro. Funciona en todos los sistemas operativos, incluyendo Linux y Android. Tiene un motor de renderizado propio, diferente al de otros navegadores, y esto enriquece la web.

Y tal vez lo más importante, tiene una vibrante comunidad de usuarios detrás. Personas voluntarias que dedican su tiempo a diversas tareas, desde mejoras en el código, documentación, promoción, y también soporte. Cuando uno entra en la web de soporte de Mozilla, hay una enorme cantidad de recursos de ayuda sobre diferentes productos de la fundación, disponibles más de 70 idiomas.

En concreto, la comunidad que tradicionalmente se ha encargado de localizar esos artículos a todos estos idiomas se llama SUMO, que son las iniciales de Support Mozilla punto Org. Y así ha venido siendo...

...hasta el año pasado.

En noviembre de 2025 me llegó por las redes sociales esta publicación en el foro de la comunidad SUMO en el que el usuario @marsf, coordinador de la localización al japonés y voluntario durante más de 20 años, mandaba un mensaje lapidario: Se disolvía la comunidad japonesa de traducción de artículos de soporte.

¿El motivo? Mozilla había introducido un bot basado en Inteligencia Artificial para traducir los artículos de manera automática, y los resultados para los artículos en japonés habían sido decepcionantes. El bot hizo caso omiso de las reglas de traducción y localización existentes, las traducciones se aceptaban automáticamente sin dar tiempo a revisarlas, no se había consultado a la comunidad sobre el despliegue... Y lo que es peor: el bot sobreescribió el trabajo de los voluntarios en más de 300 artículos.

Todo esto ocurrió directamente en producción. El tono del mensaje es muy duro: esto es una "destrucción masiva de nuestro trabajo y una violación de la misión de Mozilla, sancionada oficialmente".

El mensaje termina con @marsf anunciando su retirada de la comunidad de soporte, prohibiendo el uso de sus traducciones para el entrenamiento de los bots de traducción, y diciendo que los voluntarios pueden contribuir a título individual pero que no habrá más coordinación.

Como no podía ser de otra manera, la noticia se empezó a difundir, llegó a Hacker News, y a partir de ahí se publicó en medios de todo el mundo. La comunidad de traducción al italiano mostró su solidaridad con la japonesa: parece que en este idioma los resultados no habían sido tan malos, pero coincidían en que las formas no habían sido las adecuadas.

Si bien por más que leía la cobertura sobre el tema, había dos dudas que me quedaron dando vueltas en la cabeza.

Por un lado, ¿por qué Mozilla hizo un despliegue así de torpe de una herramienta tan dañina?

La traducción automática existe desde hace mucho tiempo. Si Mozilla veía que había páginas importantes que se estaban quedando sin traducir, podrían haber consultado con sus equipos de voluntarios y llegar a alguna solución que hiciese feliz a todos.

Y sin embargo, de golpe decidieron meter este bot hasta el punto de hacer renunciar a miembros notables de la comunidad. No entendía por qué.

Y por otro lado... ¿Quién era @marsf? ¿Cómo se tenía que sentir una persona que, después de dedicar 20 años de su vida a traducir artículos de soporte por amor al arte, decide abandonar de esa manera?

El impacto de este usuario había sido tremendo. Según el portal de la comunidad, había participado en la traducción de más de 1000 documentos, y tenía montones de insignias.

Al principio, cuando intenté averiguar algo sobre su vida, no hallé gran cosa. En mi primera exploración rápida solo encontré un blog desactualizado, una cuenta en X inactiva, y poco más. Tras indagar un poco más, pude encontrar un correo electrónico y su nombre real: Masahiko Imanaka.

Ahí fue cuando mandé mi propuesta de charla al T3chFest. La propuesta fue aceptada, así que el siguiente paso estaba claro: quería hablar con él.

Admito que me puse bastante nervioso. No conozco mucho de la cultura japonesa, solo tenía la noción de que las reglas de cortesía son un tanto estrictas. Y yo estaba queriendo escribir un correo electrónico a alguien con un reconocimiento enorme dentro de su comunidad que no me conocía de nada. Tenía miedo de sonar demasiado invasivo, de que mi email acabase en spam, y en definitiva de que nunca me contestase.

Pregunté a un par de personas cercanas que son más conocedoras que yo del asunto, y me ayudaron un poco. Al final me armé de valor, envié mi mensaje al señor Imanaka, y esperé.

¡Y al día siguiente me contestó!

Desde el principio se mostró muy abierto a contestar mis preguntas, con lo cual no os podéis imaginar lo entusiasmado que estaba yo.

En las semanas siguientes aprendí mucho del señor Imanaka. Me contó que empezó a trastear con ordenadores en el año 1989, y que su padre era administrador voluntario en NIFTY-Serve, uno de los foros más importantes que había en Japón en esa época.

En los noventa era usuario de Netscape, y cuando en 1998 publicaron el código y nació Firefox, empezó a usarlo. Yo llegué unos años más tarde, pero me hacía ilusión que tuviésemos eso en común.

En las próximas líneas me gustaría transmitiros un resumen de nuestra conversación, de la cual saqué algunos datos curiosos y una lección muy importante.

Pero para responder a la otra pregunta, por qué Mozilla decidió sabotear a su comunidad de una manera tan torpe, nos tenemos que remontar un poco más atrás.

1. Inteligencia Artificial?

“I think they are still a ‘Chinese room’. If they cannot recognize uncontexted sentences like Japanese language, I call it ‘Artificial Incompetence’ (This is an old coined word in Japan.)”

Una de las primeras cosas que le pregunté al señor Imanaka fue qué opinaba él de la IA en general. En su respuesta mencionaba "la habitación china", un experimento mental de los años 80, y también la llamó "Incompetencia Artificial".

Lo de llamar así a la IA me hizo bastante gracia, pero me pareció curioso que dejase caer que era un término ya establecido en Japón. No tenía ni idea de a qué se refería, así que me puse a investigar.

Al principio no encontré nada interesante, ponía "artificial incompetence japan" en mi buscador y salían un montón de cosas que no tenían nada que ver entre sí. Pero rascando un poco más, encontré una auténtica mina de oro.

Resulta que efectivamente, existía dicho concepto como tal, Jinkō Munō (人工無能), donde Munō literalmente significa "sin talento" (hay otra variación que se pronuncia igual que significa "sin cerebro", 人工無脳).

Gracias a la máquina del tiempo de Internet Archive, otra fundación sin ánimo de lucro que debería recibir muchísimo más apoyo, me pasé una tarde entera buceando en webs japonesas de los noventa, tratando de traducir el texto a duras penas con el traductor de Firefox para mínimamente entender lo que estaba escrito ahí. E incluso sin entender nada, como buen millennial hay algo de esta estética noventera que me produce una ternura y una nostalgia enormes.

Este concepto aludía a chatbots muy sencillos basados en reglas, que estaban diseñados para entretener o divertir. A veces tenían reglas muy básicas para reconocer ciertas palabras, en otros casos los propios usuarios le podían agregar términos adicionales, y a veces iban un poco más allá y tenían algún tipo de sistema de autoaprendizaje.

De hecho, el concepto estaba tan extendido que incluso había libros sobre el tema. Por ejemplo "Creando Inteligencia Artificial e Incompetencia Artificial en C", un libro de 2006 escrito por Tomohiro Odaka. (Años más tarde publicó una versión actualizada utilizando Python, pero el primer capítulo seguía explicando cómo crear chatbots de Incompetencia Artificial.)

Todo esto en realidad resultaba tremendamente familiar, e indagando un poco más descubrí que el concepto estaba inspirado en otro chatbot mundialmente famoso: ELIZA.

En el año 1966 Joseph Weizenbaum, un investigador del MIT nacido en Alemania, creó un chatbot que, entre otras cosas, simulaba ser una psicoterapeuta de la escuela rogeriana. Según esta escuela, la respuesta a tus problemas está en ti, así que el terapeuta tenía que hablar lo justo y crear un entorno lo más seguro y empático posible.

Este chatbot tenía reglas muy sencillas, como por ejemplo reformular casi todas las frases en forma de pregunta, preguntar cuando no entendía alguna palabra, y si el usuario decía algo triste, contestar "lamento mucho eso que me dices".

Lo que Weizenbaum no se esperaba es que gente aparentemente normal que interactuaba con este software durante breves períodos de tiempo tenían una respuesta emocional fortísima, que el propio investigador tachó de "delirio" en un libro que escribió años después.

Ahora mismo estaréis pensando "oh, qué cándidos eran en los sesenta, con sus camisas de flores y sus utopías de paz universal, se dejaban engañar por un chatbot".

Pues os recuerdo que en el año de nuestro señor 2022, un ingeniero de Google empezó a poner el grito en el cielo con que la IA tenía sentimientos, y la lió tan parda que al final le tuvieron que despedir.

Y ahora me diréis "oh, qué cándidos eran en 2022, con sus NFTs y sus utopías de que la pandemia de COVID-19 nos había hecho mejores".

Bien, pues hace escasas semanas Dario Amodei, el CEO de Anthropic, dijo que Claude "podría o no haber ganado conciencia, porque estaba mostrando síntomas de ansiedad". 🙄

(Respiramos hondo)

Todo esto1 se puede resumir en este meme:

¿Por qué os cuento todo esto? A mí que la gente crea que la tierra es plana, que los reptilianos nos fumigan, o que las máquinas piensan realmente me trae sin cuidado con tal de que no hagan daño a nadie.

Pero lo que sí me preocupa es que se utilice esta percepción para tratar de manipular a la gente. Y esto es una tendencia que hoy está más presente que nunca, pero que realmente es muy antigua. Tan antigua como la Inteligencia Artificial misma.

Año 1955. John McCarty, junto con otros nombres que también han pasado a la historia como Marvin Minsky, Nathaniel Rochester y Claude Shannon, propusieron un proyecto de investigación de 2 meses y 10 hombres "sobre la conjetura de que cualquier aspecto de la inteligencia se puede describir con tanta precisión que una máquina lo puede simular".

Y hasta aquí todo bien, no pretendo demonizar una pregunta científica que, por más que me resulte dudosa, es, en el fondo, legítima.

Pero lo cierto es que aquí arrancaron algunos vicios que persisten en nuestros días.

Como por ejemplo el de pedir dinero a raudales. En la página 3 de esta propuesta están las cantidades que le pedían a la Rockefeller Foundation. Aunque eran buenos salarios para la época, no se pueden comparar con las ansias de billetes que tienen algunos. ¿Eh, Sam?

La otra tendencia, un poco triste, es ¡las disputas entre señoros!

Por aquella época había otro investigador, Norbert Wiener, también de origen europeo, que andaba trabajando en ideas parecidas bajo el nombre de "cibernética". El tipo era un niño prodigio, se sacó la carrera de matemáticas a la tierna edad de 14 años.

Pues bien, por lo visto John McCarthy se inventó el término "inteligencia artificial" solo para evitar la asociación con la cibernética, porque el tipo no quería tener a Wiener como gurú ni tener que discutir con él.

Ríete tú de los departamentos de Anatomía I y Anatomía II de la Complutense.

Nada de esto es nuevo. Investigadoras (casi siempre mujeres) como Olivia Guest, Iris van Rooij, Abeba Birhane y muchas otras ya vienen alertando desde hace tiempo. En uno de sus últimos artículos explican cómo "Inteligencia Artificial" es un término deliberadamente ambiguo y difuso, que va mutando de significado a lo largo de los años con tal de mantener un halo de misterio y expectativas infladas (hype) que ayude a propulsar una determinada agenda.

Olivia Guest · Ολίβια Γκεστ's avatar
Olivia Guest · Ολίβια Γκεστ
6mo

Finally! 🤩 Our position piece: Against the Uncritical Adoption of 'AI' Technologies in Academia: doi.org/10.5281/zeno... We unpick the tech industry’s marketing, hype, & harm; and we argue for safeguarding higher education, critical thinking, expertise, academic freedom, & scientific integrity. 1/n

Abstract: Under the banner of progress, products have been uncritically adopted or
even imposed on users — in past centuries with tobacco and combustion engines, and in
the 21st with social media. For these collective blunders, we now regret our involvement or
apathy as scientists, and society struggles to put the genie back in the bottle. Currently, we
are similarly entangled with artificial intelligence (AI) technology. For example, software updates are rolled out seamlessly and non-consensually, Microsoft Office is bundled with chatbots, and we, our students, and our employers have had no say, as it is not
considered a valid position to reject AI technologies in our teaching and research. This
is why in June 2025, we co-authored an Open Letter calling on our employers to reverse
and rethink their stance on uncritically adopting AI technologies. In this position piece,
we expound on why universities must take their role seriously toa) counter the technology
industry’s marketing, hype, and harm; and to b) safeguard higher education, critical
thinking, expertise, academic freedom, and scientific integrity. We include pointers to
relevant work to further inform our colleagues.Figure 1. A cartoon set theoretic view on various terms (see Table 1) used when discussing the superset AI
(black outline, hatched background): LLMs are in orange; ANNs are in magenta; generative models are
in blue; and finally, chatbots are in green. Where these intersect, the colours reflect that, e.g. generative adversarial network (GAN) and Boltzmann machine (BM) models are in the purple subset because they are
both generative and ANNs. In the case of proprietary closed source models, e.g. OpenAI’s ChatGPT and
Apple’s Siri, we cannot verify their implementation and so academics can only make educated guesses (cf.
Dingemanse 2025). Undefined terms used above: BERT (Devlin et al. 2019); AlexNet (Krizhevsky et al.
2017); A.L.I.C.E. (Wallace 2009); ELIZA (Weizenbaum 1966); Jabberwacky (Twist 2003); linear discriminant analysis (LDA); quadratic discriminant analysis (QDA).Table 1. Below some of the typical terminological disarray is untangled. Importantly, none of these terms
are orthogonal nor do they exclusively pick out the types of products we may wish to critique or proscribe.Protecting the Ecosystem of Human Knowledge: Five Principles

Y todo esto por no hablar de Emily Bender, Timnit Gebru, Angelina McMillan-Major y Margaret Mitchell, las autoras del famoso artículo "Sobre los peligros de los loros estocásticos" que acabó con las investigadoras saliendo de Google.

Para quien no le guste reflexionar sobre las externalidades de estos sistemas no es lo vuestro, hay críticas para todos los gustos. Ed Zitron, que saltó a la fama hace años por una investigación extraordinaria titulada "El hombre que mató Google Search", se ha convertido en el analista tecnológico más temido, gracias a sus extensas y deslenguadas diatribas contra la creatividad financiera de las empresas de software y la credulidad de la prensa y los medios.

Ed Zitron's avatar
Ed Zitron
1mo

Anthropic's core business is deceit, selling over-hyped products based on specious marketing and a bloviating CEO that manipulates developers based on when it needs to raise funding. Now it raised $30bn, it stopped subscribers from using OpenClaw and OpenCode. www.wheresyoured.at/premium-the-...

Let’s recount all of the promises that Anthropic has made in the last year from before the premium break.

It’s promising to spend $30 billion on Microsoft Azure (and an additional "up to one gigawatt”), “tens of billions” on Google Cloud, $21 billion on Google TPUs with Broadcom, “$50 billion on American infrastructure,” as much as $3 billion on Hut8’s data center in Louisiana, and an unknowable (yet likely in the billions) amount of money with Amazon Web Services. 
Remember: Anthropic only made $4.5 billion in revenue in 2025 and lost $5.2 billion. It spent $2.79 billion on inference, and $4.1 billion on training. The Information also reports that Anthropic plans to spend $100 billion on training between 2026 and 2029, and based on the current split of inference to training, that means Anthropic will need another $59 billion or so for inference in the next four years.

That’s — assuming that Google’s share is $20 billion — around $283 billion in the next 4 years. It projects (and I think these are quite ridiculous estimates) to make $15.2 billion in 2026, $38.9 billion in 2027, and a laughable $70 billion in 2028.

Things get worse when you factor in Anthropic’s revenue shares with Amazon, Google, and Microsoft. Based on The Information’s reporting, assuming that Anthropic meets these revenue targets, these amount to somewhere in the region of $22 billion in the next three years. 

That’s over $300 billion in costs on $124 billion in revenue, and that’s including one year that has $70 billion in fucking revenue, which is around the entire ($75 billion) annual revenue of Microsoft Azure.

Pero volvamos sobre el punto de partida del curso de Dartmouth: "la conjetura de que todo aspecto del aprendizaje o cualquier otra característica de la inteligencia puede, en principio, describirse con tanta precisión que es posible crear una máquina para simularlo". ¿Realmente son máquinas totalmente autónomas? La evidencia apunta a que, al menos todavía, no es así.

No hay más que leer cualquiera de los artículos de Aylgorith, medio creado por el emprendedor nigeriano Uchechukwu Ajuzieogu que describe con todo lujo de detalle cómo las empresas proveedoras de "IA" subcontratan a personas en países empobrecidos para re-entrenar sus modelos por salarios de menos de 2 USD la hora.

O este artículo de The Guardian, que recoje las historias de trabajadoras en La India dedicadas a ver toda clase de contenidos abusivos para que la "IA" que llega a los consumidores se comporte razonablemente.

O, sin ir más lejos, la historia de los taxis "autónomos" de Waymo, que requieren de trabajadores en Filipinas para intervenir en situaciones complicadas. Gente en otra zona horaria jugando al GTA por las calles de San Francisco por salarios ínfimos.

El reparto de esta riqueza es muy desigual. Solo hay 2 empresas de producto que ganan dinero con la IA: una es NVIDIA y la otra es Mercor, que justamente es un mercado de anotadores para modelos de "IA". Una vuelta de tuerca a lo que fue Amazon Mechanical Turk en su momento.

En conclusión, y habiendo dicho todo lo anterior, solo puedo decir que coincido plenamente con quienes señalan la terminología "Inteligencia Artificial" como engañosa2. Si es artificial, no es inteligencia. Y si es inteligencia, no es artificial.

2. Las promesas que nunca llegan

“The first day I didn't care. She said ‘We want you to still be in control’. However, it was actually not the case.”

Otra cosa que le pregunté al señor Imanaka fue cómo se sintió cuando Mozilla introdujo el bot. Antes de comentar su respuesta, me gustaría enseñaros algo.

En el año 1977 Fernando Fernán Gómez publicó la obra de teatro "Las bicicletas son para el verano". Hay una escena de la obra que me fascina y que tiene mucho que ver con este texto, y puesto que la obra se trasladó al cine, aquí va un vídeo de ese momento:

Primero crear riqueza, y luego disfrutarla. Que trabajen las máquinas. Los sindicatos lo van a industrializar todo. Cuando la sociedad libertaria esté en marcha, entonces la jornada de trabajo cada vez más corta, y la gente al campo, al cine, a disfrutar con los chavales y con las gachises. Pero sin hostias de matrimonio, familia, documentos, juez ni cura, ¡no, no! ¡Libertad en todo!

La obra está basada en el año 1936, recién estallada la guerra civil. Anselmo es anarquista, y posiblemente es un personaje que tiene algo de autobiográfico.

Me acuerdo mucho de este diálogo por lo tristemente premonitorio que es para quienes ya sabemos que esa paz cojonuda no llegó, que el amor libre tendría que esperar hasta el siglo XXI.

Pero sin duda mi frase favorita, y la que quiero resaltar hoy, es esta. "Que trabajen las máquinas".

¿Acaso no es esta una bella aspiración? ¿Librarnos de aquellas tareas penosas y poder dedicarnos al arte y al ocio?

Pero esta idea no se la sacó de la manga Fernán Gómez, sino de un economista mundialmente famoso.

Tal vez os suene el nombre de John Maynard Keynes, el padre de la macroeconomía. Pues bien, ¡resulta que en el año 1930, Keynes vino a Madrid! La Sociedad de Amistad Anglo-Hispana, presidida por el Duque de Alba y con el apoyo diplomático de la Embajada Británica, invitó al economista para que diese una charla en la mítica Residencia de Estudiantes.

Era ese momento extraño: había caído la dictadura de Primo de Rivera pero no se había proclamado todavía la II República. Acababa de ocurrir el crac del '29 en EEUU,

La perspectiva de la economía era bastante negativa, y la Sociedad le pidió a Keynes que diese una charla divulgativa, no demasiado técnica, y que inyectase un poco de optimismo.

Y fue en esa charla en Madrid cuando hizo su famosa predicción de la jornada laboral de 15 horas:

Deberíamos de hacer más cosas por nosotros mismos de lo que es habitual entre los ricos de hoy, más que contentos con tener pequeños deberes, tareas y rutinas. Pero más allá de esto, debemos tratar de extender la mantequilla sobre el pan lo mejor posible, – para que el trabajo que aún hay que hacer sea tan compartido como fuera posible. Turnos de tres horas o semanas laborales de quince horas podrían resolver el problema durante un buen tiempo. ¡Y tres horas al día deberían ser suficientes para satisfacer al viejo Adán en la mayoría de nosotros!

(Traducción de Josseline Jara, Estrella Ruiz Martín y Luisa Montes Ruiz)

En esa misma charla también dijo que algún día la acumulación de capital dejará de tener importancia social, y que lo veríamos como un vicio de mal gusto. Ahora debéis estar pensando ¿quién era más ingenuo, Keynes o un anarquista de ficción?

En la actualidad no solo se hace casi imposible pelear por la jornada de 37.5 horas, sino que tenemos una completa involución. Gente que está deseando marcharse de la fiesta el sábado por la tarde para poder aprovechar los tokens de sus agentes. Emprendedores que celebran jornadas de 60, 80 horas semanales. La famosa cultura china del 996 (trabajo de 9 a 9, 6 días a la semana). Empleados durmiendo en el suelo de la oficina.

tante's avatar
tante
1mo

It's the weirdest thing. Say these things work (they do not): Isn't the pitch that these things do shit for you while you enjoy life? But these men do not want to (or are unable to) enjoy life. They want another hit from the slop machine. They are addicts and need help.

Y no son solo anécdotas. Entre abril y diciembre de 2025, Harvard Business Review condujo un estudio en el que participaron 200 empleados de una empresa tecnológica en los EEUU, y encontraron que los empleados estaban extendiendo sus horas de trabajo sin que nadie se lo pidiese. El titular: "la IA no reduce el trabajo: lo intensifica".

A conclusiones parecidas llegó ActivTrak, que en su último informe señala, con datos de más de 1000 empresas, que el porcentaje de tiempo sin interrupciones está en mínimos y que las horas de trabajo durante el fin de semana han subido un 40 %. El titular del Wall Street Journal: "la 'IA' no está aliviando la carga de trabajo, la está haciendo más intensa".

Intensidad, intensidad, intensidad. Esto es lo que sintió el señor Imanaka cuando el bot de Mozilla empezó a trabajar (énfasis mío):

“Next day (2025/10/23 04:32, JST+9:00), Sumobot was introduced to our Japanese locale. I received 467 email notifications from SUMO in the first 24 hours. They are a few "ready to be localized" and many pairs of "ready for review" and "new approved revision".
In next 7 days, I received 983 more email notifications.
[...] I was filled with despair.“

¿Y acaso algo de esto es un fenómeno nuevo? Pues resulta que, una vez más, fuimos advertidos por una mujer.

En 1983 la psicóloga Lisanne Bainbridge publicó un artículo titulado "Las ironías de la automatización" sobre procesos industriales que ya solo en los párrafos introductorios nos lanza dos observaciones que siguen plenamente vigentes. La primera de ellas:

El diseñador que trata de eliminar al operador aún le deja tareas que el diseñador no sabe cómo automatizar [...] y por ello el operador acaba con una colección arbitraria de tareas a las que no se ha dedicado suficiente atención.

Y la segunda:

Desafortunadamente, las habilidades físicas se deterioran cuando no se usan, en particular la precisión en la ganancia y la sincronización. Esto significa que un operador que antes tenía experiencia y que ha estado supervisando un proceso automático ahora se puede haber convertido en inexperto.

¿Acaso no es este ahora el pan nuestro de cada día? Todo está tan automatizado, la tecnología es tan sofisticada, que nos hemos hecho dependientes de ella. Ya hay estudios que apuntan a un deterioro de las capacidades cognitivas en médicos y programadores cuando usan demasiado la "IA".

La "IA" ética no existe - Less is Less
Hemos publicado hoy esta entrevista sobre inteligencia artificial que @irenegrubio.bsky.social y yo mismo hicimos a una de esas personas que ayudan a pensar en términos no manidos. Marga Padilla: “Podemos crear una relación liberadora con la tecnología” www.elsaltodiario.com/pensamiento/...
https://astrojuanlu.leaflet.pub/3mal6vzgads2q

En conclusión. Una cosa es que uno, por voluntad propia, decida automatizar una tarea. Pero, en primer lugar, no podemos perder de vista el efecto que esto tiene sobre nuestra cognición. Y en segundo lugar, debemos rechazar que sean otros los que deciden sobre qué es automatizable y qué no lo es. Cuando nos roban el trabajo, nos quitan una parte de nosotros mismos.

3. Rituales que crean comunidades

“Japanese long-standing contributors all started with translations. They are now core developer, advanced manager, CTO or CEO.”

Otra de las cosas que pregunté al señor Imanaka fue si tenía algún consejo para personas jóvenes que querían introducirse en el código abierto. Y me sorprendió que, a pesar de todo, defendiese la traducción.

En realidad, tiene sentido. Traducir es más o menos fácil, accesible (no hace falta saber programar), y es una buena forma de empezar a conocer metodologías y herramientas de trabajo colaborativo en red (control de versiones, listas de correo, etc). Y de alguna forma esto refleja también cómo yo mismo introduje a otros, y me introduje, en el mundo del código abierto.

A principios de 2022 estábamos viviendo en España la que sería la última ola fuerte de COVID-19, la ómicron. Yo trabajaba con la hipótesis de que las cosas iban a volver a la normalidad, y por ello llevaba meses preparando el retorno de una de mis comunidades favoritas: PyData Madrid. Los antiguos organizadores, así como NumFOCUS, tuvieron a bien cederme las llaves del grupo de Meetup, y en febrero de ese año convoqué una reunión en un bar con terraza al aire libre y sin agenda.

Hasta aquí, la historia que cuento siempre al inicio de cada reunión, pues el grupo sigue activo y más fuerte que nunca a día de hoy. Lo que sigue es la intrahistoria de cómo pasamos de una reunión de 10 personas en un bar a convocar a 80 personas todos los meses.

Las primeras reuniones fueron muy sencillas y las organizaba yo solo. El "evento mínimo viable" estaba claro: 2 charlas y "networking" en algún bar cercano. La fórmula empezó a cuajar, y el momento del bar se solía alargar hasta casi la medianoche.

Ese verano estaba francamente cansado y no tenía ni ganas de contactar ponentes, así que por no cancelar el evento impartí yo un taller. Había prometido grabarlo y lo tenía todo preparado, pero cuando la gente me preguntó por el vídeo... había olvidado hacer click en el botón3.

Aprovechando este descuido, antes de irnos de vacaciones mandé un mensaje pidiendo ayuda:

Con las personas que se ofrecieron voluntarias, más algunas que venían atendiendo asiduamente, lancé una acción para involucrarles un poco más: elegir un logo. ¿Acaso hay algo más fácil que dar una opinión sobre formas y colores?

Muchas personas que participaron en ese proceso hoy son parte esencial del equipo organizador. Estoy muy feliz de lo que mes a mes conseguimos juntos, de habernos hecho amigos, y de no estar solo. Éxito absoluto.

No aprendí estos trucos de la nada: los absorbí tras años trabajando en la comunidad.

Una de las anécdotas que más me marcó ocurrió en 2017, en una de mis primeras contribuciones a Astropy. Quise arreglar una letra que estaba mal en la documentación, y tuve que abortar mi primer intento porque me hice un lío con git4. Para cuando abrí el segundo pull request ya me moría de la vergüenza solo de pensar que estaba demandando tiempo a los mantenedores para que aprobasen una mejora tan diminuta. Y en ese momento Marten van Kerkwijk me dijo algo que se me quedó grabado:

Puede que solo sea una letra, pero ¡al menos esa cadena de documentación está más cerca de ser correcta! Merging...

Ese pequeño gesto de amabilidad de un extraño me conmovió especialmente, y sentó las bases de muchas de mis contribuciones futuras, incluyendo arreglos sustanciales en sus sistemas de coordenadas heliocéntricas. En 2019 recibí un salario del proyecto para mantener astropy.coordinates durante 6 meses, eso me allanó el camino para mi trabajo en Read the Docs en 2021... y desde entonces he trabajado a tiempo completo en código abierto sin parar.

El código abierto me cambió la vida, gracias a las personas que me encontré en el camino. Se hace más importante que nunca seguir atrayendo gente nueva.

Pero en vez de eso, lo que vemos es una glorificación del vibe coding hasta el punto de que muchos proyectos de código abierto están totalmente ahogados de contribuciones absurdas, como este pull request de más de 13 000 líneas (‼️) de alguien que ni se había molestado en mirar el código.

De esto ya hablaremos en detalle otro día. Aquí un aperitivo:

La "IA" mató al open source corporativo - Less is Less
2025 was another eventful year for PyPI! Critical security enhancements, powerful new org features, a better overall user experience, and transparent security incident response 🎉👏 Thank you, PyPI team & community! Learn more on our blog: blog.pypi.org/posts/2025-1...
https://astrojuanlu.leaflet.pub/3mc2rifc2qc2q

Tomando como ejemplo el "embudo" de contribuciones de Mike McQuaid: si gracias al vibe coding cada persona puede hacer su propio software, ya no somos usuarios del software de otros. Si no somos usuarios, difícilmente podremos contribuir. Y las contribuciones están muriendo porque los mantenedores están abrumados. Entonces, ¿quién va a mantener la infraestructura digital crítica del futuro?

4. Humanos, lentos y falibles

“AI support is a good way to work, but cleaning up after AIs work shouldn't become your job.”

Hay algo que no os he contado.

El señor Imanaka ya en su primera respuesta me dijo estas palabras que me dejaron helado (énfasis mío):

“Señor Cano Rodríguez,
Thank you for contacting to hear about the post. There were many news and blog articles and YouTubes that mention my post, but no one asked the concerns to me.“

Y en este punto pensé... ¿ahora cómo meto 40 minutos de relleno para el T3chFest? ¡Si la charla es esto! ¡Entender que detrás de cada software, de cada automatización, de cada supuesta varita mágica hay personas, con sus vivencias, sus motivaciones, sus anhelos!

Así que, para cerrar esta reflexión, os propongo algunas ideas para recuperar los lazos entre nosotros y disfrutar un poco más de la vida:

💡 Si quieres un dibujo o retrato, para ti o alguien querido, pídeselo a un artista. O a un amigo o amiga que le guste dibujar. O dibújalo tú mismo, ¡coge un lápiz! ¿Qué más da que dibujes mal? Por algo hay que empezar.

💡 Si tienes que preparar una diapositivas y la imagen perfecta no existe... cógela de un banco de imágenes. Te doy permiso para no quitarle la marca de agua (no perdamos lo cutre). O echa una foto en tu casa.

💡 Toca hierba. Pero no para pasar menos tiempo en el ordenador, o para no estar tanto tiempo en casa... No lo hagas por evitar otra cosa. Hazlo por el placer de tocar hierba.

💡 Si alguien te pide algo que no sabes hacerlo... Dilo. "No sé hacerlo, ¿me ayudas?" "¿Lo hacemos juntos?".

💡 Y por último, aunque la máquina lo haga más rápido... sigue traduciendo. Como hace el señor Imanaka, que aunque ha dejado de traducir artículos de soporte, sigue traduciendo interfaces, con exquisita atención al detalle.


Al señor Imanaka, si estás leyendo esto:

ありがとうございます

Y al resto:

¡Que trabajen las máquinas!


1.
El chorro de tonterías fue incesante esos días https://bsky.app/profile/juanlu.space/post/3mgwmhi6dys2i
2.
Y por eso en este blog, como regla de estilo, siempre la escribimos entre comillas 😉
3.
Cuando hablo de este momento a veces doy a entender que el olvido fue premeditado, pero en realidad no lo fue 😅 Ahora que está por escrito, era momento de contar la historia bien y en orden.
4.
Y eso que llevaba usando git desde 2010... todos hemos pasado por ahí.
Subscribe to Less is Less
to get updates in Reader, RSS, or via Bluesky Feed