Paper De la “histeria” del desempleo a la “histéresis” del fin del trabajo (¿too “insignificant” to fail?) (Parte I) Introducción



Descargar 1.14 Mb.
Página1/21
Fecha de conversión13.03.2017
Tamaño1.14 Mb.
  1   2   3   4   5   6   7   8   9   ...   21
Paper - De la “histeria” del desempleo a la “histéresis” del fin del trabajo (¿too “insignificant” to fail?) (Parte I)

- Introducción (los nuevos luditas 4.0 versus los tecno-optimistas)

Año 2050.  Tic tac, tic tac, … 

un hotel atendido por robots. el hotel henn-na, en nagasaki (japón),...

Un hotel atendido por robots. El hotel Henn-na, en Nagasaki (Japón), cuenta con diez robots humanoides capaces de saludar a los huéspedes, transportar el equipaje, limpiar las habitaciones y atender la recepción. Creados por la Universidad de Osaka y fabricados por Kokoro, hablan japonés, chino, coreano e inglés.



Reconocidos científicos advierten sobre los peligros de la inteligencia artificial

El término inteligencia artificial se utiliza mucho en estos tiempos, máquinas que gracias a las nuevas tecnologías son capaces de hacer muchas cosas mejor que un humano, cumpliendo labores que antes solo la mente de una persona podía hacer. Computadoras que piensan por nosotros y nos ahorran trabajo. Suena bien, pero para un grupo de científicos es también un peligro al que debemos estar muy atentos y, nos lo hicieron saber a través de una declaración conjunta.

¿Por qué es peligrosa la inteligencia artificial?

La diferencia entre la inteligencia y las capacidades de robots y computadoras con respecto a la mente humana es cada vez menor, incluso llegando a superarnos en algunos aspectos, lo que puede resultar preocupante. Las máquinas y sistemas de inteligencia artificial carecen de dos cosas muy importantes: sentimientos y ética, por lo que no son capaces discernir correctamente entre el bien y el mal, ya que su comportamiento depende de programación y no de la racionalidad, por lo que, en caso de cualquier fallo, podrían dañar al resto.

En el fin de semana del 10 de enero de 2015, más de 700 científicos de todo el mundo (entre los que destacan Stephen Hawking y Elon Musk) publicaron un manifiesto en el que abordan los riesgos y virtudes de la inteligencia artificial (IA). El documento fue publicado en la página del Future of Life Institute y en éste mencionan que la inteligencia artificial tiene el potencial de hacer la vida de los seres humanos más fácil, pero si no es controlada, la tecnología podría suponer una grave amenaza para la sociedad.

“Debido al gran potencial de la inteligencia artificial, es importante investigar cómo aprovechar sus beneficios y evitar sus peligros potenciales (…) Debemos conseguir que nuestros sistemas de IA deban hacer lo que queremos que hagan”, se puede leer en el texto.

En la publicación los científicos afirman que actualmente ya se puede ver el impacto que tendrá la IA en el futuro cercano, desde en el reconocimiento de voz a los vehículos de autoconducción, lo cual es percibido como un gran progreso. Sin embargo, también señalan que es necesario comenzar a poner límites a la IA, buscando que los avances en la materia se centren sólo en aspectos que beneficien a la sociedad.

“Los progresos realizados en inteligencia artificial son una buena ocasión para concentrar nuestras investigaciones en aquellos trabajos que no sólo hacen de las tecnologías herramientas cada vez más poderosas, sino además más beneficiosas para la sociedad”.

El texto habla sobre un desarrollo del comportamiento ético de las máquinas autónomas y su papel como armas potenciales, buscando llegar a un acuerdo mundial que mantenga un control adecuado.

No es la primera vez que Stephen Hawking y Elon Musk manifiestan en público el peligro de la IA. El físico británico ya había alertado a mediados de año sobre el riesgo que representa el desarrollo de la IA si no se maneja con cuidado. Por su parte, Musk hizo lo mismo en un sitio de futurología.

Otros de los científicos que firmaron la carta abierta son Peter Norvig, director de investigación de Google; Martin Rees, profesor emérito de cosmología y astrofísica de la Universidad de Cambridge; Vernor Vinge, profesor emérito de ciencias informáticas de la Universidad Estatal de San Diego; Frank Wilczek, premio Nobel de Física y profesor en el MIT.

Han sido muchas las reacciones a este escrito y no han sido pocos los escenarios catastróficos descritos -más propios de la ciencia ficción- que alertan sobre de una revolución de las máquinas y la extinción de la humanidad. Sin embargo, los riesgos actuales son otros.

La capacidad de procesar enormes cantidades de datos por parte de los ordenadores puede otorgar a quienes los controlan -y analizan toda la información- un poder oracular que les permita dominar las finanzas a nivel internacional, por ejemplo. Recientemente un equipo de científicos del MIT demostraba que se puede identificar a cualquier persona a partir de datos anónimos gracias a los patrones de uso de las tarjetas de crédito.

Hoy en día, la principal amenaza de la inteligencia artificial es el mal uso que pueda hacer alguien de la capacidad de los aparatos de extraer y analizar datos de forma masiva”, destaca el director de ingeniería de Asoy Robotics, Diego García”... Los verdaderos peligros de la inteligencia artificial (La Vanguardia - 6/2/15)

El director del Instituto de Inteligencia Artificial de Barcelona (IIIA-CSIC), Ramón López de Mántaras agrega además las armas autónomas como amenaza. “Es muy preocupante el desarrollo de la robótica inteligente con la finalidad de disponer de robots soldados, ya que para un robot es casi imposible distinguir entre un civil inocente y un combatiente”, subraya el premio nacional de Informática 2012 y firmante del manifiesto.

El coche sin conductor de Google es otro caso. Pasarán años antes de que estos vehículos ocupen las carreteras y todo indica que cuando ocurra serán más seguras. Pero si se produce algún accidente, el vacío legal plantea dudas. ¿Quién debe ser el responsable? ¿El “conductor”, el propietario o el diseñador? ¿Y si es cierto que las máquinas cometen menos errores que los humanos, entonces deberíamos dejar que las personas conduzcan al lado de robots?

La falta de regulación internacional

“Con la carta abierta respaldada por científicos como Stephen Hawking o Bill Gates, la gente ha empezado a creer que ellos tienen una información privilegiada que el resto de la humanidad no tiene. Pero la realidad es muy distinta”, explica García que reitera que la intención de los firmantes de la carta es advertir de la necesidad de trabajar en una regulación tecnológica a nivel internacional.

Del mismo modo que existe el Organismo Internacional de Energía Atómica (OIEA) -perteneciente a las organizaciones internacionales conexas a las Naciones Unidas-, García cree que científicos y políticos deberían agruparse para extender una legislación.

En 1942 el bioquímico y escritor de ciencia ficción Isaac Asimov propuso las famosas tres leyes de la robótica, que asumen que los robots tienen conocimientos suficientes como para tomar decisiones de orden moral y pretenden así evitar una posible rebelión.



“Hoy podemos asegurar que ninguno de los robots actuales, ni tampoco ninguno de los que habrá a corto, medio e incluso a bastante largo plazo, se nos descontrolará”, tranquiliza Mántaras. Es por eso que aunque “las leyes de la robótica de Asimov están muy bien pensadas, el estado actual de la robótica es tan incipiente que no tiene ningún sentido implantarlas en robots”, añade.

“El problema no está en la propia tecnología, sino en la humanidad. Es más probable que sea el hombre con intenciones malignas quien provoque una posible guerra entre humanos y máquinas”, matiza García.

Transformación de las profesiones



La pérdida de lugares de trabajo es otro de los peligros presentes de la inteligencia artificial. Según el especialista del CSIC, “hasta ahora los robots desplazaban las personas de tareas repetitivas o peligrosas, pero con los avances en inteligencia artificial comenzarán a peligrar trabajos relacionados con el sector de los servicios, por ejemplo”.

Un estudio publicado hace unos meses informaba que casi el 50% de las ocupaciones existentes en la actualidad serán completamente redundantes el año 2025 si la inteligencia artificial continúa transformando las empresas del modo que ya lo está haciendo.

Los expertos coinciden en señalar la educación como la medida más importante. “Vamos a buscar otros trabajos donde se prime la creatividad y por eso será necesario invertir en una educación que añada el arte entre la ingeniería y las matemáticas”, opina García. Por su parte, Mántaras asegura que “habrá que dar mucha más importancia a la formación continua para que la gente pueda reciclarse con más facilidad y así poder cambiar de profesión, ya que por lo menos, hasta ahora, los cambios tecnológicos que han destruido lugares de trabajo también han creado otros”.

Se trata, al fin y al cabo, de una transformación de las profesiones. Faltará ver si los diferentes sujetos de la sociedad se apresuran a poner en marcha los engranajes que entran en juego -leyes tecnológicas, educativas, etc.- para que esta inevitable revolución del trabajo sea para el bien general de la humanidad.

- Stephen Hawking advierte que la inteligencia artificial podría acabar con la especie humana (ABC.es - 3/2/14)

(Por Luis Ventoso / corresponsal en Londres)

“Los humanos están limitados por una evolución biológica lenta y no podrían competir”, explica el físico

Stephen Hawking, que el 8 de enero cumplirá 73 años, es sin duda el científico vivo más popular. No tanto por sus hallazgos sobre los agujeros negros en el campo de la física teórica, como por su impresionante pelea contra la esclerosis lateral amiotrófica (ELA), cuyos primeros síntomas padeció con solo 20 años, cuando completaba su formación en Cambridge.

Hawking, postrado en una silla de ruedas y hoy ya solo capaz de mover los músculos de su rostro, lo ha conseguido todo, pese a que su cuerpo es su cárcel. Ha convertido la física en un best-seller global, sobre todo con su “Historia del tiempo” de 1988. Se ha casado dos veces y es padre de tres hijos. Y casi se ha convertido en un icono pop: ha aparecido hecho dibujo animado en los Simpson, está presente en “Endless river”, el nuevo disco de Pink Floyd, y en enero se estrena “La teoría del todo”, una película que cuenta su primer noviazgo, sus días en la universidad y cómo supo que padecía la enfermedad. La película hizo llorar al científico cuando la vio en un pase privado y le ha dado su visto bueno. Ahora, en una entrevista en la BBC, a través de la voz artificial con la que se comunica, ha expresado su preocupación por el desarrollo futuro de la inteligencia artificial y advierte que podría destruir a la humanidad.

Hawking, que se expresa a través de un sintetizador de voz alimentado por un ordenador Intel, es partidario y usuario de la tecnología puntera y cree que hasta ahora ha prestado unos relevantes servicios al hombre, pero su mirada va hacia el futuro: “El desarrollo de una completa inteligencia artificial podría traducirse en el fin de la raza humana”. El físico, que se declara ateo, vaticina que una IA enormemente desarrolla “podría decidir rediseñarse por su cuenta e incluso llegar a un nivel superior”. La raza humana se vería desbordada: “Los hombres, que están limitados por una evolución biológica, no podrían competir”.


  1   2   3   4   5   6   7   8   9   ...   21


La base de datos está protegida por derechos de autor ©bazica.org 2016
enviar mensaje

    Página principal