
Aprendizaje sin aprendiz
En octubre de 2021, Mark Zuckerberg presentó el nuevo logo corporativo de Meta: una cinta de Moebius tridimensional que representaba el infinito y la continuidad sin fronteras del metaverso. Cinco años después, esta representación ha adquirido un cariz mucho más perturbador y revelador del que sus diseñadores gráficos posiblemente previeron. La cinta de Moebius, esa superficie donde interior y exterior se confunden sin solución de continuidad, representa hoy el enfoque de gestión del conocimiento empresarial que Meta está impulsando.
Reuters reveló el 21 de abril de 2026 que Meta había comenzado a instalar en los computadores de sus empleados el Model Capability Initiative (MCI), un software que registra movimientos del mouse, clics, pulsaciones de tecla y capturas periódicas de pantalla en aplicaciones laborales. El propósito declarado: dotar a los modelos de IA de ejemplos reales sobre cómo los empleados usan los computadores, desde la navegación entre menús desplegables hasta el uso de atajos de teclado, para entrenar agentes de IA capaces de ejecutar tareas de oficina de forma autónoma.
El despliegue de este programa coincide con una recomposición profunda del liderazgo intelectual de Meta en materia de IA. En junio de 2025, Meta pagó 14.300 millones de dólares por el 49% de Scale AI y nombró a su cofundador, Alexandr Wang, al frente de su nuevo equipo de superinteligencia. Scale había construido su negocio sobre la recolección de datos del trabajo realizado por contratistas externos; ahora Meta aplica esa lógica con sus propios empleados. El MCI se inserta en una iniciativa más amplia que Meta ha rebautizado Agent Transformation Accelerator (ATA), liderada por el director de tecnología Andrew Bosworth. En un comunicado interno, Bosworth describió el propósito de esta medida: la visión que se construye es aquella en la que los agentes “principalmente hacen el trabajo” y los empleados pasan a “dirigir, revisar y ayudarles a mejorar”. Es “un bucle cerrado” en el que los agentes puedan “automáticamente ver dónde sentimos la necesidad de intervenir, para mejorar la próxima vez”. No describe una espiral de mejora dialógica entre humano e IA, sino un circuito en el que la intervención humana es el dato que entrena al sistema para no requerir esa intervención en el futuro. Cada corrección del trabajador es, técnicamente, una contribución a su propio reemplazo gradual.
El 23 de abril de 2026, Meta anunció el despido de aproximadamente 8.000 empleados, el 10% de su plantilla global, a partir del 20 de mayo de 2026, con reorganización del personal restante en equipos centrados en IA y una nueva categoría laboral genérica llamada “AI builder”. Empleados de Meta calificaron el programa como “distópico”, preocupados por la exposición potencial de contraseñas, información sobre productos en desarrollo e incluso datos sensibles sobre el estado migratorio, salud o familia.
Lo que está en juego no es solo la extracción de datos para automatizar tareas, sino la propia naturaleza del conocimiento en las organizaciones. Durante tres décadas, el pensamiento de gestión empresarial ha descansado sobre la premisa de que el conocimiento organizacional es un fenómeno esencialmente humano, anclado en la experiencia corporal, la intuición y la interacción social. La irrupción del conocimiento artificial, producto directo de la Inteligencia Artificial Generativa (GenAI), obliga a reexaminar esa premisa desde sus cimientos.
La primacía de lo tácito. Para comprender la magnitud de la fractura actual es preciso recordar el modelo que ha dominado la gestión del conocimiento desde los años noventa. Ikujiro Nonaka e Hirotaka Takeuchi, en The Knowledge-Creating Company (1995), postularon que la innovación organizacional surge de una dinámica espiral de conversión entre conocimiento tácito y explícito. Esta dinámica, conocida como modelo SECI, articula cuatro procesos: comienza con “Socialización”, en la que los individuos comparten conocimiento tácito como resultado de la observación y la imitación, seguido de “Externalización”, similar a la digitalización, en la que el conocimiento tácito se transforma en conocimiento explícito mediante metáforas y analogías, luego “Combinación”, en la que conocimientos explícitos dispersos se combinan a nivel organizacional para transformarlo en conocimiento colectivo que puede compartirse social y sistemáticamente, y cerrando el ciclo “Internalización”, en la que cada individuo enriquece su conocimiento tácito al practicar el conocimiento colectivo. Con la estrategia de Meta, la externalización ya no la realiza el trabajador articulando su conocimiento, sino que la organización captura directamente sus micro-comportamientos.
La distinción entre conocimiento tácito y explícito fue formulada por Michael Polanyi en The Tacit Dimension (1966). Su célebre frase “sabemos más de lo que podemos decir” encapsula una verdad que la ingeniería contemporánea tiende a olvidar: el conocimiento humano está encarnado, es personal, subjetivo y, en su capa más profunda, inarticulable. El conocimiento explícito, que reside en textos, manuales, bases de datos, procedimientos, sería apenas la punta visible del “iceberg”; debajo residiría una gigantesca masa sumergida de intuiciones, habilidades corporales, emociones y valores. Meta intenta capturar las manifestaciones conductuales de aquello que Polanyi consideraba inarticulable.
En The Learning Company (1997), Pedler, Burgoyne y Boydell postulaban que una empresa que aprende era la que facilitaba el aprendizaje de sus personas y se transformaba continuamente. En esta línea, el experto en educación David Kolb en su libro Experiential Learning (1984) propuso que “El aprendizaje es el proceso mediante el cual se crea conocimiento, a través, de la transformación de la experiencia”. Según Kolb, el conocimiento individual emerge idealmente de un ciclo de cuatro etapas: experiencia concreta, observación reflexiva, conceptualización abstracta y experimentación activa. Ambos modelos, el organizacional de Nonaka-Takeuchi y el individual de Kolb, comparten el concepto de Polanyi: “Todo conocimiento es tácito o se basa en el conocimiento tácito”, supuesto que la era de la GenAI ha vuelto problemático. En la iniciativa de Meta, la experiencia concreta permanece en el empleado, pero la reflexión y la conceptualización se transfiere directamente al sistema, que internaliza el aprendizaje. El ciclo es unidireccional: “aprendizaje sin aprendiz”.
Sin embargo, el conocimiento tácito del artesano, el ceramista que reconoce por el tacto cuándo la arcilla está lista o el médico experto que percibe un diagnóstico antes de articularlo, sigue siendo, en lo esencial, inasequible para la captura algorítmica porque está genuinamente encarnado en trayectorias biográficas irreproducibles. Pero buena parte de lo que se denominaba tácito en el trabajo de oficina: rutinas de navegación, microjuicios al redactar un correo, atajos mentales de priorización, son en rigor comportamiento explícito, solo que nadie había tenido las herramientas para registrarlo a la granularidad adecuada. La apuesta de Meta consiste, precisamente, en disolver esa distinción que durante décadas operó como una unidad incuestionada.
Esto modifica el diagnóstico. La automatización por IA no amenaza indistintamente a “lo humano”: amenaza específicamente a aquella franja del trabajo cognitivo donde lo que se vivía como pericia tácita era en realidad rutina explicitable. La pericia genuinamente encarnada: el juicio en situaciones ambiguas, la lectura corporal del médico veterano, la creatividad que rompe patrones, resiste mejor, por ahora, la captura. Y allí donde la automatización avanza sobre lo explicitable, paradójicamente, lo verdaderamente tácito se revaloriza.
La cinta de Moebius como heurística. En abril de 2026, los investigadores Constantin Bratianu, Ruxandra Bejinaru y Doina Banciu publicaron en la revista Sustainability un artículo donde proponen un modelo para articular el conocimiento humano y el conocimiento artificial. Según los autores, el conocimiento artificial no trata de ninguna “verdad”, y no se origina en un marco semántico, por el contrario, es producto de algoritmos basados en reglas sintácticas, destilación estadística de patrones textuales y visuales presentes en los datos de entrenamiento, carente tanto del anclaje corporal como de la intencionalidad que caracterizan al conocimiento humano. No sería una “creencia verdadera justificada”, sino el resultado probabilístico de una función matemática. Su tesis: modelar la dinámica de creación de conocimiento organizacional como una cinta de Moebius que contiene dos ciclos abiertos y acoplados: el ciclo SECI para el conocimiento humano y un ciclo distinto para el conocimiento artificial.
Como el logo de Meta, este modelo académico, captura la idea de que el conocimiento humano y el artificial no son independientes, sino planos de una misma realidad que se transforman uno en otro sin solución de continuidad. El conocimiento tácito permanece en el ciclo humano, donde puede ser socializado y externalizado según los procesos SECI tradicionales; el conocimiento artificial circula en su propio ciclo, generado por algoritmos y validado (o invalidado) por intervención humana. El acoplamiento entre ambos ciclos permite que el conocimiento explícito humano alimente el entrenamiento de los modelos y que el conocimiento artificial resultante sea internalizado, en el mejor de los casos, por trabajadores humanos que tras un escrutinio filtren alucinaciones y sesgos.
La gestión del conocimiento híbrido. La emergencia del conocimiento artificial como categoría diferenciada redefine el papel de la gestión de conocimiento organizacional. Ya no se trata de facilitar la conversión entre tácito y explícito en comunidades humanas, sino de diseñar, gobernar y calibrar ecosistemas híbridos donde humanos y máquinas cocrean conocimiento que ninguno podría generar aisladamente. Esto exige competencias nuevas: alfabetización algorítmica, capacidad de auditar sesgos en datos de entrenamiento, sensibilidad para detectar alucinaciones y, sobre todo, una comprensión matizada de qué tipo de conocimiento puede ser delegado a las máquinas y cuál debe permanecer anclado en la experiencia humana.
El caso de Meta con su programa MCI ilustra la urgencia de esta reflexión. El memorando de Bosworth asegura que los datos “no se utilizarán para evaluaciones de desempeño”, pero la ambigüedad deja abierta la puerta a una vigilancia que podría normalizarse. Cuando Bosworth respondió internamente a los empleados: “si tienes preocupaciones quizá sea mejor no revisar correo personal desde el computador de trabajo”, dejaba claro la porosidad de la frontera.
Monopolios epistémicos. La concentración del conocimiento en unas pocas corporaciones que controlan los datos de entrenamiento, la capacidad de cómputo y los modelos de aprendizaje plantean un riesgo de monopolio cognitivo sin precedentes en la historia moderna. La iniciativa de Meta forma parte de una tendencia de la industria: no solo se concentra el conocimiento ya existente, sino la propia capacidad de generar conocimiento nuevo sobre cómo se trabaja. Si Meta, Google, OpenAI o Anthropic se convierten en las únicas entidades con capacidad de capturar a gran escala cómo las personas deciden, priorizan y producen conocimiento, estamos ante una forma de asimetría epistémica que ninguna legislación antimonopolio del siglo XX contempló.
La instalación del MCI en los computadores de Meta no es una anécdota corporativa: es un síntoma de una transformación civilizatoria. Asistimos al desbordamiento de los modelos epistémicos que heredamos del siglo XX, diseñados para un mundo donde solo los humanos generaban conocimiento. El conocimiento artificial, fundamentalmente explícito, no puede ser asimilado sin fracturar esos marcos; pero la fractura también nos obliga a distinguir con mayor precisión qué parte dentro de lo que llamábamos conocimiento tácito es genuinamente irreductible y qué parte es rutina esperando ser capturada. El desafío para los gestores del conocimiento, los líderes corporativos, los reguladores y la ciudadanía es mayúsculo: navegar la tensión entre la fascinación por la eficiencia algorítmica y la preservación de lo irreductiblemente humano, sin romantizar ninguno de los dos polos. La cinta de Moebius describe una topología donde interior y exterior se confunden sin fronteras, pero no decreta cómo recorrerla. La pregunta políticamente decisiva no es si el conocimiento humano y el artificial se acoplarán, ya lo están haciendo, sino bajo qué reglas, en beneficio de quién, y con qué garantías para quienes producen el conocimiento que alimenta a las máquinas.
Polanyi y Nonaka siguen teniendo razón en lo esencial: hay intuición, juicio y creatividad que emergen del encuentro encarnado entre experiencia y reflexión, y que ninguna captura granular de comportamientos lo alcanza por completo. Pero la capa de lo que creíamos conocimiento tácito y que hoy resulta ser explicitable está siendo redibujada en tiempo real, y con ella se redibuja el contorno de lo que significa trabajar, decidir y crear. La cinta de Moebius, una vez tendida, admite recorridos muy distintos. Cartografiar el territorio es, en sí mismo, un modo de intervenir en él. Ikujiro Nonaka en una entrevista con The Beautiful Truth en abril de 2024 señaló:
En mi opinión, la gestión tiene dos aspectos fundamentales: la creatividad y la ética. La gestión es un acto altamente creativo porque cada empresa existe para crear un nuevo valor para la sociedad, para hacer realidad el futuro que desea. La gestión también implica contribuir al bien común de la sociedad. Las empresas no deben limitarse a perseguir el interés propio de maximizar las ganancias o el valor para los accionistas, sino que deben esforzarse por hacer de la sociedad un lugar mejor.