“Considerando que, desde el monstruo de Frankenstein creado por Mary Shelley al mito clásico de Pigmalión, pasando por el Golem de Praga o el robot de Karel Čapek —que fue quien acuñó el término—, los seres humanos han fantaseado siempre con la posibilidad de construir máquinas inteligentes, sobre todo androides con características humanas…”.

Así comienza el impactante Informe del Parlamento Europeo “con recomendaciones destinadas a la Comisión sobre normas de Derecho civil sobre robótica (2015/2103(INL))”, de 27 de enero de 2017.

Nos encontramos en un momento brumoso entre la realidad y la ciencia ficción, entre el esplendor y la pesadilla, con un punto de llegada incierto. Cada capítulo de la serie “Black Mirror”, por ejemplo, “es un recordatorio de hacia qué deriva puede estar dirigiéndose la sociedad con su ritmo actual” (Gómez-Carreño Galán, S., “¿Sueñan los androides con ovejas eléctricas… y con derechos?”, Abogacía Española, nº 18, febrero de 2018, págs. 68-71).

Aunque todavía estamos lejos —o eso queremos creer— de que un Nexus de Blade Runner o una “persona enfundada” de la serie “Altered Carbon” interactúen con nosotros y nos ofrezcan iniciar una relación sentimental o suscribir un contrato de cuenta corriente, lo cierto es que algo se mueve: según el Parlamento Europeo, en el último decenio se han triplicado las solicitudes anuales de patentes en el sector de la tecnología robótica.

Ya se trate de androides o de máquinas que simplemente hagan la vida más sencilla y llevadera a las personas físicas de siempre, evitándonos las engorrosas tareas de relacionarnos (“el infierno son los otros”, con Sartre), pensar y tomar decisiones, uno de los muchos aspectos que se tendrá que resolver en el futuro inmediato es el de la responsabilidad de los robots y de los sistemas de inteligencia artificial por los daños causados a terceros como consecuencia de las acciones u omisiones que se les puedan atribuir.

¿Podría una máquina emitir recomendaciones de contratación, en sentido amplio y no regulatorio, de productos financieros? Por supuesto que sí: pensemos, por ejemplo, en los sistemas de “scoring” (una clásica forma de “big data”) que ya “nos seleccionan” para concedernos créditos de forma razonablemente segura para el prestamista, a la vista de nuestro patrimonio, de los ingresos periódicos y del historial de otras operaciones de préstamo. En caso de error de la máquina, las consecuencias no las sufriría tanto el cliente como el acreedor, que podría ver cómo una operación aparentemente segura se convierte en un fallido irreversible, o, como resultado de la acumulación de errores individuales, se genera un riesgo sistémico.

El eventual daño para el cliente vendría dado en el caso de que la máquina, por ejemplo, le recomendara invertir en un instrumento financiero, pero la empresa emisora, radicada potencialmente en cualquier punto del planeta, quebrara o sus beneficios fueran más bien reducidos que pingües. El “daño patrimonial” sería la diferencia entre la expectativa afirmada y la realidad de la inversión.

Nos parece razonable la tesis del Parlamento Europeo que concluye que, en el actual marco jurídico, los robots no pueden ser considerados, dada su escasa autonomía, responsables de los actos u omisiones que causan daños a terceros y que, “al menos en la etapa actual, la responsabilidad debe recaer en un humano, y no en un robot”.

Esto nos merece dos reflexiones:

Primera: Los robots no son en estos momentos titulares, por carecer de capacidad jurídica y de obrar, de derechos y obligaciones ni, por extensión, de un patrimonio que los aglutine. Sería un sinsentido atribuirles responsabilidad si no disponen al mismo tiempo de un patrimonio con el que “responder” para resarcir a terceros de los daños causados que les puedan ser imputados. Por tanto, ciertamente, la única responsabilidad hipotética y razonable en el momento actual, sería la de los humanos que han diseñado y configurado la máquina.

Y segunda: Sea el asesoramiento prestado puramente por máquinas o por personas físicas, si la base para la toma de la decisión es la correcta, la persona natural usuaria del servicio financiero siempre debería tener la última palabra y “responder de los propios actos”, bajo el riesgo de, en caso contrario, llegar a ser “más autómata que el autómata”, lo que se opondría al más natural sentido de autonomía de la voluntad y, en consecuencia, a la libertad de elección. Las peores pesadillas empezarían a tomar forma en este escenario, tan propenso a la manipulación y al totalitarismo.

Pero si la máquina —algún día— llegara a ser autónoma y no un mero instrumento al alcance de los diseñadores, los fabricantes y los operadores, esta situación de “daño patrimonial” no se podría producir en absoluto con las leyes de Asimov en la mano, aplicadas al asesoramiento financiero:

1.ª Un robot no hará daño a un ser humano ni permitirá que, por inacción, este sufra daño.

2.ª Un robot obedecerá las órdenes que reciba de un ser humano, a no ser que las órdenes entren en conflicto con la primera ley.

3.ª Un robot protegerá su propia existencia en la medida en que dicha protección no entre en conflicto con las leyes primera y segunda.

0.ª Un robot no hará daño a la humanidad ni permitirá que, por inacción, esta sufra daño.

Qué bien nos habría venido a todos que muchos decisores, gestores y comercializadores de contratos e instrumentos financieros se hubieran comportado últimamente como fríos robots, auténticos héroes, antes que como impredecibles animales de sangre caliente.


José María López Jiménez

Especialista en regulación financiera. Doctor en Derecho

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *