Inteligencia Artificial antropomórfica y regulación: ¿puede China marcar el camino?

La inteligencia artificial antropomórfica avanza más rápido que su regulación. China ya ha propuesto un marco legal claro y estricto. ¿Deberían la UE y EE. UU. seguir su ejemplo antes de que sea demasiado tarde?
Georgina Viaplana
February 4, 2026

En su mejor momento, el hombre es el más noble de todos los animales; separado de la ley y la justicia es el peor.

Aristóteles

La tendencia actual de la tecnología, y el futuro de la sociedad, están profundamente marcados por la Inteligencia Artificial y otros tipos de tecnologías antropomórficas (tecnologías que poseen rasgos y patrones de pensamiento humanos, aunque no sean humanas). El poder de esta tecnología relativamente reciente, combinado con la velocidad a la que está creciendo, podría convertirse en una auténtica receta para el desastre en el futuro.

Si somos honestos, ya hemos visto el impacto que puede tener la IA a la hora de promover actividades ilegales o poco saludables. Y con cada día que pasa, las capacidades de estas tecnologías antropomórficas no hacen más que aumentar. Para poder ejercer algún tipo de control en el futuro, es imprescindible establecer directrices más claras, especialmente en regiones como la UE y Estados Unidos.

China y la nueva regulación sobre IA antropomórfica

China, por su parte, ha lanzado recientemente una consulta pública sobre una nueva ley que busca regular precisamente este tipo de tecnologías. El nombre del proyecto es “Interim Measures for the Administration of Humanized Interactive Services Based on AI”. Su propósito queda claro desde el título.

El borrador de la ley incluye 32 artículos, todos ellos con criterios más estrictos y definidos sobre lo que se espera tanto del software de IA como de sus desarrolladores, con el objetivo de proteger al interés general. A pesar de la relevancia de este anuncio, no se está hablando lo suficiente de ello, especialmente en regiones como la UE y EE. UU., donde las directrices actuales siguen siendo ambiguas.

Los artículos del borrador abarcan desde requisitos técnicos del software hasta normas de seguridad y salud para los usuarios. Veamos algunos de los puntos más destacados.

Definir qué es la IA para poder regularla

El Artículo 2 tiene como objetivo principal concienciar sobre qué es realmente la IA. Describe la inteligencia artificial como un software que contiene rasgos humanos, puede pensar como un humano y fomentar ideas similares a las humanas. El primer paso para poder controlar la IA es comprender qué es exactamente, y este artículo sienta esa base.

El Artículo 3 amplía este enfoque, señalando que, pese al alto nivel de desarrollo de la IA, el gobierno chino quiere seguir fomentando la creatividad en las tecnologías antropomórficas, siempre dentro de un entorno seguro y controlado.

Requisitos legales y límites del software

El Artículo 7 cambia el foco hacia el propio software. Aquí se detallan los estándares necesarios que debe cumplir cualquier tecnología antropomórfica para poder operar legalmente. Entre las restricciones se incluyen:

  • Contenidos que pongan en peligro la seguridad nacional
  • Contenidos que dañen la imagen del país
  • Generación de inestabilidad social o económica
  • Promoción de actividades ilegales como el juego o el crimen

También se establecen límites sobre cómo el software puede influir en el comportamiento humano, prohibiendo el uso de algoritmos para manipular a los usuarios o fomentar conductas peligrosas, como el autodaño o la violencia hacia otros.

En esencia, este artículo trata a los softwares antropomórficos como si fueran personas: si infringen la ley promoviendo violencia o causando inestabilidad, se considera una violación legal con consecuencias equivalentes.

Responsabilidad, menores y colectivos vulnerables

Los Artículos 8 al 18 abordan la responsabilidad sobre las acciones del software. En los artículos 8 y 9 se establece que toda la responsabilidad en materia de seguridad recae en el proveedor, durante todo el ciclo de vida del software. Además, el proveedor debe contar con la capacidad técnica suficiente para gestionar completamente la herramienta.

Los Artículos 11 y 12 se centran en la protección de menores y personas mayores. Se exige que todos los proveedores incluyan un “modo menor” y que exista consentimiento de un tutor legal. En el caso de las personas mayores, se fomenta la introducción de información de emergencia por si surgiera algún problema durante el uso del software.

Transparencia y límites en la interacción

Los Artículos 16 al 18 tratan sobre la transparencia. Los proveedores deben informar claramente a los usuarios de que están interactuando con un sistema de inteligencia artificial, independientemente de la apariencia o comportamiento del software. La IA no puede sustituir la interacción social humana y su uso debe estar limitado.

Además, el software debe ser capaz de detectar usos problemáticos. Por ejemplo, tras dos horas de interacción continuada, debe enviar un aviso recordando que el usuario está interactuando con una IA y no con una persona real. También debe permitir abandonar la conversación en cualquier momento, de forma sencilla y completamente accesible.

Consecuencias legales del incumplimiento

Por último, el Artículo 29 establece las consecuencias de incumplir estas directrices. En la práctica, se trata a los sistemas antropomórficos como si fueran personas, aunque la responsabilidad recae sobre la empresa desarrolladora. Las infracciones reiteradas pueden incluso derivar en la suspensión del software.

¿Deberían la UE y EE. UU. seguir este modelo?

Dado que en la UE y Estados Unidos no existen todavía normas estrictas sobre el uso de la IA, quizá sea el momento de aprender del enfoque chino. Aunque China ha declarado abiertamente su intención de liderar la carrera de la inteligencia artificial y cuenta con un entorno donde estas normas son más fáciles de aplicar, establecer límites claros es un paso necesario para el futuro de la tecnología.

Las tecnologías antropomórficas evolucionan y aprenden cada día. Controlarlas antes de que sea demasiado tarde es clave. Un marco regulatorio similar no solo ayudaría a limitar riesgos, sino también a comprender mejor estas tecnologías. Si queremos un futuro eficiente, necesitamos saber cómo usar la inteligencia artificial… y, sobre todo, cómo controlar su uso.

How can we help you?
If you have any questions, our specialists are here to assist you whenever you need it.
Live Chat
Share this article
Blog

Related Articles

Businesses trust Lawwwing to ensure their legal compliance, keeping their documents up-to-date and avoiding penalties.
cross