CIUDAD DE MÉXICO.- Textos claros, estructurados o con cierto nivel de formalidad empiezan a ser leídos como posibles productos de IA. En ese contexto, características que históricamente se valoraban (precisión, corrección gramatical, riqueza léxica) pueden volverse indicios en contra. Esto tiene consecuencias concretas.
La premisa que opera por debajo de estas acusaciones es que existe un estilo identificablemente humano del cual el texto generado por IA se desvía de manera detectable. El problema es que esa premisa es falsa en los dos sentidos: los modelos de lenguaje producen texto que resulta indistinguible del humano para la mayoría de los lectores, y los humanos que escriben con precisión formal son sistemáticamente confundidos con máquinas.
En estos casos, la acusación no se basa en evidencia técnica sino en percepciones: “suena a IA”. Y ese criterio, lejos de ser neutral, introduce sesgos que empiezan a impactar en evaluaciones laborales, académicas y editoriales. ¿Qué nivel de evidencia debería exigirse antes de que una acusación de uso de IA tenga consecuencias sobre una obra?
El avance de la inteligencia artificial está obligando a repensar algunos de los principios sobre los que se organizó la comunicación académica en las últimas décadas. Dos debates aparecen hoy en primer plano: el rol del acceso abierto y la incapacidad de ejercer un control sobre los contenidos.
El acceso abierto frente a nuevas demandas
Uno de los ejes centrales es el impacto de la IA sobre el modelo de open access. En un análisis publicado en Scholarly Kitchen, se plantea que estos sistemas introducen formas de uso del contenido que no estaban contempladas cuando se consolidó este modelo.
El artículo remarca que el acceso abierto fue diseñado principalmente para facilitar la lectura y circulación del conocimiento entre personas, pero no necesariamente para habilitar su uso intensivo por sistemas automatizados. En ese sentido, se señala que licencias ampliamente utilizadas —como las que permiten reutilización con ciertas condiciones— no siempre definen con claridad si habilitan el entrenamiento de modelos de inteligencia artificial.
Además, se advierte que ya están surgiendo intentos de ajustar estas condiciones, ya sea mediante nuevas cláusulas o reinterpretaciones de licencias existentes, lo que genera tensiones dentro del propio movimiento open access. El debate comienza a desplazarse así desde el acceso hacia las condiciones de reutilización a gran escala, especialmente en contextos donde los contenidos pueden ser extraídos, procesados y recombinados de manera masiva.
La “falsa promesa” del control
Un segundo eje aparece en un artículo de Authors Alliance, que cuestiona la idea de que autores, bibliotecas o instituciones puedan controlar de manera efectiva el uso de sus contenidos en sistemas de inteligencia artificial.
El texto explica que, en la práctica, una vez que los contenidos están disponibles —ya sea en repositorios abiertos, bibliotecas digitales o incluso sitios web—, resulta muy difícil impedir su recolección y uso por parte de terceros. En este contexto, muchas de las soluciones propuestas, basadas en restricciones legales o técnicas, pueden ofrecer una sensación de control más que un control efectivo.
El artículo también pone el foco en el rol de bibliotecas y archivos, recordando que su misión histórica ha sido garantizar el acceso al conocimiento. Desde esa perspectiva, advierte que un enfoque centrado exclusivamente en limitar el uso podría entrar en tensión con ese objetivo, especialmente si se traduce en barreras adicionales para la circulación de contenidos.
Estos debates muestran un sistema en transición, donde las reglas sobre acceso, uso y control del conocimiento están siendo reconfiguradas por el desarrollo de nuevas tecnologías.
AM.MX/fm
The post Cuando escribir “demasiado bien” se vuelve sospechoso appeared first on Almomento | Noticias, información nacional e internacional.

