Sobre la IA y el fantasma del profesor D. Stuart Russell

En un brevísimo artículo titulado ¿Hemos de temer a los robots superinteligentes? (IyC - ago. 2016), D. Stuart Russell, profesor de ciencias de la computación en la Universidad de California, presenta claramente el fantasma de la sublevación de los robots. Yo no me lo creo.

En primer lugar el profesor de Berkeley parte de una premisa falsa. En efecto, afirma que "Una máquina que tiene un objetivo concreto cuenta con otra característica que solemos asociar a los seres vivos: el deseo de preservar su propia existencia". En la siguiente oración se explica, pero ya se puede comprender que esa afirmación no se sostiene a sí misma; aunque se apuntale con los dudosos argumentos que le siguen.

La justificación que ofrece de tan absurda premisa, es que en ella se predica una consecuencia lógica; pues si la máquina tiene un objetivo, necesita no estar "muerta" para conseguirlo. ¡Maravilloso!

Voy a continuar con el desarrollo que hace el profesor en defensa de ese fantasma llamado "deseo de preservar su propia existencia". Pues bien, no satisfecho con haber demostrado (mediante la necesidad lógica), que las máquinas desearán su supervivencia, se decide a extraer la siguiente consecuencia (también lógica por supuesto ¡válgame mi conciencia!), que es que el deseo que ya tiene la misma máquina, va a estar acompañado por el "incentivo" de bloquear su "interruptor de apagado", incluso "exterminando" a quien se interponga en su objetivo (que "haga un café" por ejemplo). Naturalmente que ante tal avance en el análisis, el profesor, inmediatamente ve el apocalipsis, o por lo menos, oye las trompetas.

Así, mediante necesidad lógica, partiendo de la simple tarea encomendada a una máquina, el profesor ya ha hecho nacer en la propia máquina, un "deseo" y un asesino "incentivo". Cosas de la lógica, se me ocurre.

Pues bien, una vez demostrada su premisa, se plantea la verdadera pregunta: "¿Es posible diseñar sistemas de inteligencia artificial cuyos objetivos no entren en conflicto con los nuestros?". Y a pesar de ser una cuestión ciertamente "complicada", se atreve con tres condiciones ("principios fundamentales"), cuyo cumplimiento posibilitará la pacífica convivencia. ¡Emocionante!

Las magistrales condiciones, son:
  • "El propósito de la máquina debe ser maximizar el cumplimiento de los valores humanos"
  • "Al principio, la máquina no debe estar segura de cuáles son dichos valores. … aprendiendo…, pero no alcanzar[á] una certeza absoluta sobre ellos"
  • "La máquina debe ser capaz de aprender acerca de los valores humanos observando lo que hacemos las personas"
¿Cuál es ahora la clave? A pesar de la idea central recogida en cada condición, la auténtica razón, la que posibilitará la convivencia, está escondida en la parte final de la segunda condición: ¡la "incertidumbre sobre los valores humanos"! ¡Hurra!

¿Se entiende? Es muy sencillo: "Así pues, encuentra beneficioso que lo apaguen, porque entiende que, si la persona lo hace, es para evitar que haga algo en contra de los valores humanos" (… porque en el fondo no conoce ni conocerá nuestros valores con certeza absoluta). ¡Qué prodigio el humano!

Tengo que decir, en primer lugar, que se me disculpen las derivas narrativas y el tono exclamativo utilizados para dar a conocer el contenido del artículo que me sirve de crítica. Es sólo retórica.

Y sobre la cuestión en sí de la problemática presentada por el Sr. Russell, antes de nada, comienzo por el final: ¿el robot es "incapaz de identificarlos con exactitud" (los valores humanos), por qué razón? Del propio artículo se desprende que se trata de un "principio fundamental"; luego, la incapacidad se deberá a un "principio fundamental". ¿El robot será obligado a respetarlo o por su propia inteligencia lo descubrirá? ¿Descubrirá que es incapaz de identificar con exactitud los valores humanos? No creo, más bien, parece que el profesor da a entender que el robot estará obligado a respetar dicho "principio fundamental".

Ahora, ya se está en condición de encender la luz ante el fantasma. ¿Por qué el profesor no menciona ni una sola vez la palabra normas, el término ley, o el concepto de obligación?

Dos cuestiones al respecto: Primero, que será de esperar que una inteligencia artificial avanzada, categorice el concepto de norma obligatoria, y aprenda a ser responsable; ¿No es esto cierto? ¿O será capaz de aprender mediante su superinteligencia todo lo concerniente a la naturaleza, al hombre y a su sociedad (como indica el profesor), excepto que nuestra herramienta social más preciada son las normas y su cumplimiento?

La segunda cuestión, es ¿Por qué lo decisorio es la presunta voluntad invulnerable del robot cuando precisamente esa inviolabilidad de la voluntad es algo absolutamente impropio del ser humano? ¿Se basa en una inteligencia artificial contraria al hombre? ¿Qué tipo de neuronas artificiales tiene ese robot? ¿A qué fenómeno de la naturaleza imitan si no es al del hombre y su sociedad humana? ¿Nunca va a aprender que las guerras son malas? ¿Que matar es un delito que se castiga con prisión? Y si jamás es capaz de aprenderlo, ¿no se le va a programar? ¿No se le va a obligar a cumplir las normas?

Comentarios

Entradas populares