
¿Qué pasaría si los robots pudieran cometer delitos?
Vivimos en tiempos en los que los robots ya no son solo herramientas futuristas o personajes de ficción. Ahora son repartidores que atraviesan nuestras calles, asistentes que conversan en nuestras casas o incluso vehículos autónomos que circulan por nuestras autopistas. Lo que antes era ciencia ficción hoy ya no sorprende a nadie, o casi nadie.
Pero cuando los robots empiezan a ocupar espacios que tradicionalmente pertenecían solo a las personas, aparecen algunas preguntas que surgen en nuestras conversaciones diarias: ¿Puede un robot cometer un delito? ¿Cómo actúa la justicia cuando un crimen involucra a una máquina autónoma? En definitiva, ¿quién responde ante la ley cuando algo sale mal?
Estas cuestiones, lejos de ser anecdóticas, abren una puerta fascinante al ámbito legal, en el que jueces, abogados y legisladores deben adaptarse a un escenario que cambia tan rápido como la tecnología misma. Precisamente, instituciones educativas como UNIE Universidad, a través de su Grado en Derecho, ya están formando profesionales capaces de afrontar estos desafíos con visión crítica y preparada para el futuro.
Robots y crimen: conceptos básicos
Cuando se habla de robots en temas legales, no basta con pensar en máquinas con forma humana y movimientos torpes. La verdad es que hoy en día los robots no siempre tienen forma. Algunos ni siquiera se ven. ChatGPT, por ejemplo, también entra en esa categoría amplia de sistemas capaces de hacer tareas de forma autónoma. Lo mismo pasa con asistentes virtuales, chatbots, algoritmos que filtran currículums o los que deciden qué vídeo te aparece en redes sociales.
En derecho, lo importante es cómo actúan, qué decisiones pueden tomar por sí solas y hasta qué punto están programadas para hacer lo que hacen. Para entendernos: un robot, a ojos de la ley, es cualquier sistema que, sin intervención directa de una persona, es capaz de hacer cosas por su cuenta. Cosas como moverse, entregar paquetes… o equivocarse.
La clave está en esa autonomía. Si una máquina puede actuar sin que nadie le diga paso a paso lo que tiene que hacer, entonces la ley tiene que preguntarse cómo juzgar sus acciones. No es lo mismo un robot aspiradora que sigue un recorrido predefinido que un coche autónomo que decide frenar —o no— cuando alguien cruza por delante.
Diferencias entre crímenes intencionales y accidentes tecnológicos
En derecho, hay una diferencia básica que lo cambia todo: no es lo mismo hacer algo a propósito que hacerlo sin querer, o sea lo que jurídicamente se conoce como “dolo”. Por ejemplo, si alguien lanza una piedra con intención de hacer daño, está cometiendo un delito. Pero si esa piedra se cae porque la pared estaba mal construida, hablamos de un accidente, aunque el resultado —el golpe— sea el mismo.
Con los robots pasa algo parecido. Si una máquina actúa mal, lo primero que hay que preguntarse es: ¿hubo alguien que la programó mal? ¿Se podía haber evitado? ¿O simplemente fue un error imprevisible? Esa diferencia marca si hablamos de responsabilidad penal (como en un crimen) o de otro tipo de responsabilidad, como la civil o técnica.
Aspectos legales: ¿puede un robot cometer un delito?
Análisis jurídico sobre la responsabilidad penal de los robots
A día de hoy, la ley no contempla que un robot pueda sentarse en el banquillo de los acusados. No porque no haga cosas que podrían tener consecuencias graves, sino porque, al fin y al cabo, sigue siendo una herramienta. En los sistemas legales actuales, solo las personas —ya sean físicas (como tú o yo) o jurídicas (como una empresa)— pueden ser responsables de un delito.
Entonces, ¿qué pasa cuando un robot comete una acción que causa daño? La ley lo que hace es mirar quién estaba detrás. Puede ser quien lo haya programado, puede ser quien lo fabricó o incluso quien lo puso a funcionar sin control adecuado. Por ejemplo, si un dron autónomo choca contra una persona, no se culpa al dron, sino a quien lo configuró mal o no revisó sus rutas. El robot actúa, pero la responsabilidad es siempre humana.
Casos hipotéticos y precedentes legales
Aunque todavía no hay muchos casos resueltos en tribunales que involucren directamente a robots, sí ha habido situaciones algo llamativas. En Estados Unidos, un coche autónomo de Uber atropelló a una mujer en 2018. Fue un caso clave para plantear cómo se reparte la responsabilidad entre la empresa, los desarrolladores del software y el operador de seguridad que iba dentro del vehículo.
También ha habido discusiones legales en Europa sobre si un robot podría tener algún tipo de “personalidad electrónica” para asumir ciertas responsabilidades. Pero la idea, por ahora, no ha cuajado. La mayoría de expertos coincide en que esa vía, más que resolver problemas, podría complicarlos.
Desafíos legales en la atribución de culpabilidad a máquinas autónomas
El gran reto es que, con sistemas cada vez más complejos, a veces no es tan fácil encontrar al responsable directo. Cuando una IA aprende sola y toma decisiones basadas en miles de datos, ¿a quién se le puede pedir explicaciones si algo sale mal? Ese es uno de los mayores desafíos legales: no solo entender cómo funciona la tecnología, sino también definir claramente quién debe responder.
Esto lleva a otro problema: muchos de los sistemas actuales son una “caja negra”. No siempre es posible saber por qué una IA actuó de una forma concreta. Y sin saberlo, es difícil demostrar culpa o negligencia. La ley va por detrás de la tecnología, y ahí es donde empiezan los vacíos legales.
Propuestas para adaptar el marco legal a nuevas tecnologías
Algunos países y organismos internacionales ya están planteando cambios. La Unión Europea, por ejemplo, ha propuesto un reglamento sobre inteligencia artificial que establece responsabilidades claras para los fabricantes y usuarios, especialmente en sectores de alto riesgo como la salud, el transporte o la seguridad pública.
También se habla de introducir seguros obligatorios, como ocurre con los coches, para cubrir posibles daños causados por robots o IA. Y en el ámbito académico y legal, cada vez se escucha más la necesidad de una legislación flexible, que se pueda ir adaptando a medida que la tecnología evoluciona.
Incidentes inusuales con robots
Caso del robot repartidor que interfiere en una escena del crimen
En Los Ángeles pasó algo que parece sacado de una comedia: un robot de reparto cruzó tranquilamente una cinta policial y se metió en medio de una escena del crimen. Estaba haciendo su ruta habitual, repartiendo comida, y no “entendió” que esa zona estaba cerrada por una investigación. El vídeo dio la vuelta al mundo y abrió una conversación curiosa: ¿cómo deberían actuar estos robots en situaciones fuera de lo común?
Aunque pueda parecer solo una anécdota, lo cierto es que mostró una laguna en su programación. ¿Y si en lugar de una cinta policial fuera una zona de peligro real? Este tipo de incidentes, que al principio provocan incluso ternura o risa, nos hacen pensar en lo importante que es enseñar a estos sistemas a reconocer contextos delicados.
Impacto de la presencia de robots en situaciones de emergencia
En emergencias, cada segundo cuenta. Por eso, algunas universidades están desarrollando robots que puedan entrar en zonas de desastre, medir constantes vitales o buscar personas atrapadas. En Pittsburgh, por ejemplo, están trabajando en un robot que evalúa lesiones en situaciones críticas para ayudar a los sanitarios a actuar más rápido. No sustituyen al personal médico, pero sí pueden facilitar el trabajo.
Aun así, no todo es tan fácil como suena. Hay estudios que muestran que estos robots, si no se integran bien en los equipos de emergencia, pueden estorbar más que ayudar. Es decir, si no están bien entrenados para colaborar con humanos, pueden generar más caos que orden.
Reacciones del público y autoridades ante estos incidentes
Estos casos han generado reacciones muy distintas. Por un lado, hay quien ve los robots como una ayuda útil, siempre que estén bien diseñados. Por otro, empiezan a surgir preocupaciones sobre qué pasa con los datos que recogen. En Los Ángeles, por ejemplo, se descubrió que algunas empresas de robots habían compartido imágenes captadas por sus dispositivos con la policía. Y eso, claro, despertó dudas sobre la privacidad.
Las autoridades ya se están empezando a mover. No solo por temas de seguridad en la calle, sino también para regular cómo, cuándo y dónde pueden operar estos sistemas. Porque si bien los robots no son personas, cada vez están más presentes en nuestras vidas... y no pueden ir por libre.
Ahora bien, si te has quedado con ganas de saber más sobre robots, crímenes y cómo el Derecho intenta ponerse al día con una tecnología que no para de avanzar, el episodio número 3 de ¿Qué pasaría si…?, te puede interesar. Junto a Susana Checa, Directora del Grado en Derecho de UNIE Universidad, hablamos de leyes, inteligencia artificial y de algunas preguntas que ya empiezan a tocar la puerta de los tribunales.