RSS Feed

 

 

 




 

 

 

 

 

 

 

 Próximos eventos:

 Últimos eventos:

 

 

Login

Inteligencia artificial

  • ¿Puede la inteligencia artificial ayudar a predecir inundaciones?

     4- 6 minutos

    Inundaciones en Sant Joan Les Fonts, La Garrotxa, Girona, en enero de 2020. Shutterstock / AlbertoGonzalez

    El estudio actual de la hidrología se enfrenta a numerosos retos. Los efectos del calentamiento global se hacen patentes en forma de precipitaciones extremas que derivan en catástrofes para la sociedad. Tenemos ejemplos recientes de riadas con efectos devastadores este verano en AlemaniaChina, Japón y España.

    La creciente intervención humana sobre el territorio genera alteraciones muy significativas en las condiciones de drenaje natural de las cuencas hidrográficas –porciones de terreno cuyas aguas afluyen todas a un mismo cauce– y de los movimientos de agua subterránea.

    ¿Qué ocurre con la lluvia en la superficie?

    La hidrología en una cuenca es el resultado de la interacción de múltiples procesos muy variables en el espacio y en el tiempo. Dentro de una misma cuenca, puede llover con diferente intensidad en distintos lugares y esas tormentas pueden evolucionar de forma diferente.

    La precipitación caída puede infiltrar a distintas tasas en diferentes lugares de la cuenca. Estas tasas dependerán no sólo de la ocupación del suelo, sino también de otros parámetros como sus propiedades físicas o, incluso, su contenido inicial de humedad.

    La porción de lluvia no infiltrada discurre hacia los cauces de los ríos en superficie a velocidades variables o puede detenerse en almacenamientos intermedios y alcanzar el cauce principal en distintos momentos.

    Por último, una avenida o crecida avanza a lo largo del cauce principal con aportes continuos en cada punto del mismo. Su velocidad depende principalmente de las características geométricas del cauce.

    La integración de todos estos procesos genera un sistema con gran variabilidad espacial y temporal, extremadamente complejo de plasmar en un modelo hidrológico para toda la cuenca. El comportamiento conjunto del sistema determina, a grandes rasgos, la aparición de inundaciones y sus consecuencias.

    Modelos para estudiar las cuencas hidrográficas

    Para abordar el estudio de tales sistemas existen modelos de base física muy robustos conceptualmente, pero matemáticamente difíciles de manejar. Su uso a escala de cuenca hidrográfica es muy complejo en la práctica puesto que necesita información muy detallada. También existen modelos empíricos de uso muy frecuente a pesar de que su aplicación generalizada no deja de ser discutible.

    En este contexto, los hidrólogos más reputados reconocen que los modelos existentes son incapaces de aportar soluciones adecuadas a las necesidades actuales de la hidrología. Estos expertos cuestionan si los modelos actuales son capaces de representar los procesos hidrológicos de forma adecuada a diferentes escalas. Además, llaman a desarrollar técnicas novedosas para la adquisición de datos experimentales sobre los procesos y al uso de datos históricos como base sobre la que construir modelos hidrológicos.

    Paradójicamente, a pesar de que existen infinidad de técnicas muy precisas para la medida de variables hidrológicas (precipitación, infiltración, humedad en el suelo, niveles de agua en cauces), los expertos reconocen la falta de datos de calidad. Advierten que esto, en mayor medida que la disponibilidad de modelos conceptualmente indiscutibles, es clave para avanzar en el conocimiento de los procesos hidrológicos.

    Uso de algoritmos de inteligencia artificial

    El uso de datos históricos para construir modelos a partir de algoritmos de inteligencia artificial o de aprendizaje automático ha experimentado un gran auge en los últimos tiempos. Se han utilizado para modelizar de forma muy precisa multitud de fenómenos como la precipitación en el tiempo (tanto a nivel mensual o estacional como a muy corto plazo), para predecir niveles de flujo en cauces tras tormentas o incluso para identificar las zonas del territorio susceptibles a la aparición de inundaciones y los niveles esperados de tales inundaciones.

    Estos algoritmos son muy eficientes para extraer la información contenida en series de datos y muy útiles de cara a clasificar la información o predecir la evolución de los fenómenos hidrológicos. Además, el uso de estas herramientas, y con ello sus posibilidades para aportar información útil para la comprensión de la hidrología, se ve muy favorecido por el desarrollo de las técnicas de medida gracias a los recientes avances en microelectrónica y comunicaciones que permiten desplegar sensores muy precisos o usar drones o satélites.

    Sin embargo, estos avances no han sido suficientes. Los hidrólogos todavía no se encuentran satisfechos con los modelos ni con su capacidad para predecir la evolución de los fenómenos hidrológicos. Tampoco creen que los datos recopilados sean suficientemente representativos de los fenómenos a estudiar.

    En cierto modo, la capacidad para mejorar el conocimiento de los sistemas hidrológicos y con ello modelizar y predecir mejor su evolución de cara a prevenir inundaciones debe nacer de un cambio de paradigma. Un enfoque radicalmente distinto acorde a las exigencias actuales es necesario. Los fundamentos físicos de los sistemas hidrológicos datan en su mayoría de principios del siglo XX o finales del siglo XIX y la forma en la que se interpretan y se resuelven debe adaptarse al contexto actual y a las herramientas disponibles.

    El uso de los algoritmos de inteligencia artificial ensamblados y a disposición de los modelos de base física es un camino poco explorado y que puede aportar nuevas perspectivas interesantes de cara a la mejora de la capacidad de predicción de los modelos.

    Por otra parte, el cambio de paradigma también debe considerar que la hidrología actual no debe basarse únicamente en la predicción de (protección ante) fenómenos extremos, sino que el contexto impone desarrollar medidas que también permitan aprovechar la escorrentía de la inmensa mayoría de las tormentas en tanto que recurso escaso y no únicamente evitar los efectos perniciosos de aquellas tormentas que ocurren con una frecuencia muy escasa.

    Fuente:

    • Sergio Zubelzu Profesor de Hidrología, Ingeniería Hidráulica y Riego, Universidad Politécnica de Madrid (UPM)
    • Sara Esperanza Matendo Matendo PhD Candidate, Universidad Politécnica de Madrid (UPM)
    • Víctor Galán Vaquerizo PhD candidate in Agroengineering, Universidad Politécnica de Madrid (UPM)
  • La inteligencia artificial en climatología

    3 minutos

    Google, Facebook, Nvidia y otras compañías tecnológicas no solo han revolucionado las redes sociales y los juegos por ordenador sino que han invadido en mundo considerado hasta ahora estrictamente científico con sus algoritmos de inteligencia artificial (IA) y sus nuevos procesadores. La climatología no ha sido una excepción y, quizá con algo de retraso respecto a otras ciencias como la biotecnología, está adoptando a paso rápido estos productos, en principio comerciales, para la pura investigación científica. En esta breve columna pasaremos revista a algunas de las aplicaciones recientes de la IA, y concluiremos con una somera consideración seudofilosófica sobre la IA.

    Descrito muy someramente, un algoritmo de IA es una función empírica, basada solamente en datos, que liga predictores y predictandos. La IA se ha aplicado ya en varios campos de la climatología, en algunos con más éxito que inicial que en otros. Por ejemplo, la detección del efecto de los gases de invernadero sobre el clima, utilizando una idea desde de mi punto de vista muy original. Los algoritmos de IA se calibran con datos tomados de simulaciones climáticas que cubren el periodo histórico, p.ej. de 1900 hasta el 2020. Los datos para la calibración del algoritmo son simplemente el año (p.ej. 1930, el predictando) y el campo bidimensional de temperatura superficial simulado (el predictor). Una vez que el algoritmo se ha calibrado (entrenado en el argot de IA), se aplica a datos reales. El algoritmo es alimentado con el campo de temperatura observado y es capaz de identificar el año en el que este campo ha sido observado en realidad con bastante precisión. Es una confirmación más de que los modelos climáticos producen una evolución realista del clima del siglo XX. Otra aplicación con una orientación más técnica en el marco de los modelos climáticos son las parametrizaciones de los procesos que ocurren a escalas más pequeñas que la resolución espacial del modelo. Un ejemplo clásico es la convección y la formación de nubes. Dado que la resolución especial de los modelos es típicamente aún de 100 km, estos procesos no pueden simularse directamente y son representados indirectamente mediante parametrizaciones - funciones semi-empíricas que ligan la convergencia y la humedad como predictores de la cubierta nubosa en una celdilla particular del modelo. Estas formulaciones semi-empíricas son bastante diferentes en los distintos modelos climáticos, y son responsables de gran parte de las diferencias que existen entre las proyecciones climáticas futuras obtenidas con diferentes modelos. La IA intenta substituir estas formulaciones semi-empíricas con algoritmos más sofisticados y más eficientes desde el punto de vista computacional.

    Por último, la IA también intenta substituir por completo a los modelos climáticos en el campo de la predicción de más largo plazo, por ejemplo estacional o incluso decenal. Esta aplicación está menos desarrollada, pero evidente tendría un impacto muy importante si se llegaran a desarrollar algoritmos de IA que fueran capaces de predecir, por ejemplo, si el próximo invierno va a ser más seco o más húmedo de lo normal utilizando solo los datos observados en verano y en otoño. Podría parecer un objetivo muy ambicioso, pero no debemos olvidar que los modelos estadísticos de predicción de El Niño compiten muy razonablemente con los modelos dinámicos sofisticados. Así que también en este campo podríamos esperar alguna sorpresa. Se puede argumentar que, aunque los algoritmos de IA pueden tener un éxito sorprendente, en el fondo son algoritmos ‘ciegos’, que no ‘comprenden’ la dinámica del clima, en contraste con los modelos dinámicos que incorporan todas las leyes conocidas de la física y química del clima. Sin embargo, si nos preguntamos por el significado de la palabra ‘comprender’ nos topamos enseguida con algunas dificultades (pseudo) filosóficas. El cerebro humano ‘comprende’ las leyes de la física, sí, pero ¿cómo lo hace? En el fondo, a menos que creamos que el intelecto humano está dirigido por un alma inmaterial, el cerebro no es más que una red neuronal, eso sí, complicadísima, mucho más complicada que las redes utilizadas por la IA, pero esencialmente, funciona bajo el mismo principio.

    Fuente:  Artículo: Eduardo Zorita

  • Qué es y qué no es la inteligencia artificial

    Neurona artificial en el concepto de inteligencia artificial. Los códigos binarios en forma de pared hacen de líneas de transmisión de pulsos y/o información en analogía con un microchip. Ktsdesign / Shutterstock

     

    En los últimos años el término inteligencia artificial y todo lo que tiene que ver con ello está adquiriendo un gran protagonismo y sobredimensionamiento. La expresión inteligencia artificial se está utilizando abusivamente y de forma básicamente incorrecta, diariamente, en múltiples ámbitos cotidianos, desde el político al empresarial.

    ¿Existen realmente máquinas inteligentes, similares a las personas? Si respondemos a esta pregunta con cierto rigor, desde las bases de las ciencias físicas y matemáticas, la respuesta es no. Y muchos científicos conjeturan y argumentan seriamente que probablemente nunca existirán.

    Computar no es lo mismo que pensar

    A partir de los años 30 y 40 del siglo XX, se desarrollaron las áreas de conocimiento adyacentes a las matemáticas y la física, como la ciencia de la computación, la electrónica, la automática o la propia área de la inteligencia artificial.

    En el año 1937 vieron la luz dos publicaciones científicas de enorme importancia: la primera, Sobre los números computables, con una aplicación al Entscheidungsproblem, del matemático Alan Turing, y la segunda, Análisis simbólico de relés y circuitos de conmutación, del matemático e ingeniero electrónico Claude Shannon. Estos trabajos fundaron la forma inicial de crear máquinas electrónicas capaces de computar, manejar información y manipular símbolos mediante programación algorítmica.

     

    Alan Turing diseñó el bombe, un dispositivo empleado por Reino Unido para descodificar los mensajes cifrados por la máquina alemana Enigma durante la Segunda Guerra Mundial.

     

    Sin embargo, la inteligencia artificial, entendida como aquella que pretende replicar capacidades intelectuales similares a las de las personas (llamada inteligencia artificial general o inteligencia artificial fuerte - IAF) no se ha demostrado en absoluto. Esto es: no hay evidencia ni matemática, ni física, ni se conoce la existencia de ningún prototipo equivalente a las capacidades pensantes de un cerebro humano.

    Decisión vs. elección

    En 1966 el matemático y profesor de Ciencias de la Computación en el Instituto Tecnológico de Massachusetts (MIT) Joseph Weizenbaum creó en su laboratorio un programa llamado ELIZA capaz de realizar procesamiento de lenguaje natural.

     

    Ejemplo de conversación con ELIZA.

     Esta sencilla herramienta reconocía palabras clave en las frases del usuario para elegir una frase modelo de su base de datos con la que contestar.

    ELIZA era capaz de entablar una conversación con seres humanos simulando a una psicóloga empática. Weizenbaum modeló su estilo de conversación como preguntas abiertas para animar a los pacientes a comunicarse más eficazmente con la terapeuta, y le sorprendió que su programa fuera tomado en serio por muchos usuarios.

    A la vista de que gran número de admiradores consideraron el programa como verdadero precursor de las máquinas pensantes, el propio autor se vio obligado a dejar claro que consideraba esta interpretación totalmente errónea e intentó vehementemente corregir en sus intervenciones posteriores estas ideas.

    Entre otros muchos escritos, Weizenbaum publicó en 1976 el libro El poder informático y la razón humana: del juicio al cálculo. Con él trataba de explicar al público en general su trabajo y sus consecuencias desde la filosofía de la ciencia, sin incluir turbadoras fórmulas matemáticas en el texto.

    En el libro, el autor distingue entre las capacidades de los computadores y el razonamiento humano, y establece una distinción crucial entre decidir y elegir. Lo mismo que en la automática la decisión y control de un proceso industrial se implementa con un circuito o un computador como el controlador programado de dicho proceso, Weizenbaum explica que decidir es una actividad computacional, algo que en última instancia puede programarse y, sin embargo, la elección es el producto del juicio, no del cálculo.

    El papel de la mecánica cuántica

    En 1989, el físico, matemático y Premio Nobel en el año 2020 Roger Penrose publicó su influyente libro La nueva mente del emperador en el que demuestra que el pensamiento humano no es básicamente algorítmico.

    A caballo entre las matemáticas, la filosofía de la ciencia y la física, el texto incorpora tanto demostraciones matemáticas como ilustradas discusiones de los famosos exámenes de inteligencia (como el test de Turing y el experimento de la habitación china). Además, conjetura la posible necesidad de las leyes de la mecánica cuántica para poder explicar correctamente nuestras mentes.

    La obra fue devastadora para la tradicional inteligencia artificial fuerte. Inspiró contestaciones de múltiples autores en diversas áreas de conocimiento, pero sus tesis no pudieron ser refutadas convincentemente.

    Penrose avanzó aún más en sus ideas con el segundo de sus libros sobre la conciencia humana, publicado en 1994: Las sombras de la mente. En él incluye una propuesta detallada sobre cómo podrían implementarse esos procesos cuánticos en el cerebro.

    Las nuevas conjeturas, propuestas por Penrose y el anestesiólogo y psicólogo Stuart Hameroff combinando enfoques de biología molecular, neurociencia, farmacología y teoría de la información cuántica, postulan que la conciencia se origina en el nivel cuántico dentro de las neuronas, en lugar de la visión convencional de que es producto de las conexiones entre neuronas. Se considera que el mecanismo es un proceso cuántico llamado reducción objetiva que está orquestado (Orch OR) por estructuras celulares llamadas microtúbulos (importantes componentes del citoesqueleto de las neuronas). Se propone que la teoría puede responder al difícil problema de la conciencia y proporcionar un mecanismo para el libre albedrío.

     

    A: Un terminal axónico libera neurotransmisores a través de una sinapsis y son recibidos por microtúbulos en la espina dendrítica de una neurona.

    B: Estados de conmutación de tubulinas de microtúbulos simulados.

     

    Estas ideas pueden perfectamente ser incorrectas, tal y como el propio Penrose argumenta. Muchos investigadores multidisciplinares en estos campos intentaron refutar parte de estas propuestas, pero actualmente siguen en vigor.

    Sin inteligencia artificial a la vista

    Desde un punto de vista global, sabemos que se han estudiado múltiples enfoques desde hace décadas para tratar de desarrollar la inteligencia artificial. Las redes neuronales, los sistemas expertos, la lógica fuzzy y en los últimos tiempos el deep learning y el big data han dado lugar a útiles herramientas para resolver problemas con fines específicos.

    Estas herramientas pueden ser impresionantes, pero debemos tener muy claro que no nos hemos acercado al desarrollo de la inteligencia artificial general. La llamada inteligencia débil (o inteligencia estrecha) se corresponde con las aplicaciones que hoy tenemos, pero las afirmaciones exageradas sobre sus éxitos dañan la reputación de la inteligencia artificial como ciencia.

    En más de ochenta años de investigación en esta área no se ha producido ninguna prueba firme de desarrollo a niveles humanos de inteligencia artificial general. Sabemos que los circuitos artificiales son incapaces de modelar los sistemas nerviosos incluso de los invertebrados más simples. Aún con computadoras muy rápidas y con enormes bases de datos, confiar en que el razonamiento, la inteligencia y la conciencia surjan de alguna manera simplemente aumentando más y más la complejidad no parece más que un camino sin salida.

    Las herramientas informáticas son muy útiles, pero, aunque una máquina gane a los ajedrecistas profesionales o sea capaz de proponer un recurso legal buscando jurisprudencia en su gran base de datos, no es una máquina pensante. Es importante no banalizar, diferenciar entre herramientas tecnológicas y entes inteligentes, así como dejar a la ciencia seguir trabajando con rigor en esta apasionante materia.

     

    Publicado en The Conversation el 16 de agosto de 2022

    Autoría:

    Victor Etxebarria Ecenarro.Catedrático, Universidad del País Vasco / Euskal Herriko Unibertsitatea.

    Cláusula de Divulgación:

    Victor Etxebarria Ecenarro recibe fondos de Proyectos de Investigador del MICINN y el Gobierno Vasco.

  • Xabi Uribe-Etxebarria: “La inteligencia artificial debe ser un complemento para el ser humano, no un sustituto”

    6 -  8 minutos

    Xabi Uribe-Etxebarria es un emprendedor, visionario de inteligencia artificial y CEO de Sherpa.ai, una empresa líder en servicios de IA. Se ha formado como ingeniero industrial. Cuando estudiaba el doctorado en Procesamiento del Lenguaje Natural (PNL) decidió construir su primera empresa. Desde entonces, no ha dejado de crecer.

    Uribe-Etxebarria ha sabido rodearse de un equipo de investigadores de primer nivel y su compañía está reconocida entre los referentes mundiales de la IA junto con Google, Amazon, Microsoft o IBM. “Es un hombre de energía ilimitada”, ha dicho de él su consejera Joanna Hoffman, exdirectora de marketing en Apple, mano derecha de Steve Jobs y una de las grandes personalidades del mundo tecnológico que acompañan a este emprendedor vasco en su empresa.

    ¿Cómo es el futuro?

    Yo trato de ser muy cauto… En estos casos suelo hacer referencia a una frase de Sócrates que nos ha llegado a través de los textos de Platón: “No hay más ignorante que el que cree saber lo que no sabe”. Nadie sabe a ciencia cierta cómo va a ser el futuro, hay tantas variables que la incertidumbre es altísima, un pequeño avance en inteligencia artificial o en neurotecnología lo puede cambiar todo. Pero al igual que hay incertidumbres también hay certezas, como que la humanidad va a cambiar más en los próximos 150 años que en el último millón de años.

    La inteligencia artificial transformará por completo aspectos de nuestra vida cotidiana que llevamos milenios haciendo de una manera similar, como las relaciones humanas y el mercado laboral, entre otros. Más adelante, con la revolución biológica y la neurotecnología, cambiarán incluso nuestras habilidades físicas y mentales. Estamos ante el comienzo de una nueva era y debemos de asegurarnos de que, dentro de esas incertidumbres y posibilidades, vamos hacia ese futuro en el que la inteligencia artificial y la neurotecnología sean un complemento a nuestras vidas y no un sustituto. Que todas estas nuevas tecnologías y ciencias estén al servicio de la humanidad.

    ¿Cómo vamos a conseguir esa complementariedad?

    El avance científico y tecnológico no va a parar, por lo que debemos asegurarnos de que todo se haga en la dirección correcta. Partimos de la base de que la ciencia y la tecnología son de por sí neutras, pero, como todo, corren el riesgo de que se utilicen también con fines no beneficiosos. Debemos tratar de fomentar que ocurran los mejores escenarios y evitar que ocurran los distópicos. Por lo que debemos sentar las bases éticas y legales que lo permitan.

    ¿Vamos por el buen camino?

    Yo soy optimista por naturaleza. Si se utiliza de la manera adecuada, la inteligencia artificial tiene la capacidad de resolver los desafíos urgentes que tienen la humanidad y nuestro planeta. Como la eficiencia energética o la cura de enfermedades hasta ahora incurables. Poniendo las herramientas adecuadas, podemos llegar en unas décadas a un futuro mucho más sostenible y beneficioso para todos.

    Xabi Uribe-Etxebarria: “Nadie sabe a ciencia cierta cómo va a ser el futuro” | #Telos115.

    En un contexto de progreso tecnocientífico acelerado que lo cambia todo, ¿qué le dirías a alguien que ahora tiene diez años de edad sobre su educación actual y futura?

    Lo que está claro es que estamos ante un mundo que cambia mucho más deprisa que en los últimos milenios. Surgen cada año nuevas profesiones que hace pocos años ni nos podríamos imaginar que pudieran existir. Estas nuevas profesiones traen nuevas oportunidades laborales, pero, a la vez que unas surgen, otras desaparecen. Hasta ahora, durante nuestra juventud elegíamos un camino o una profesión y era la que, en la mayoría de los casos, nos acompañaba el resto de nuestras vidas.

    El mundo que viene será más cambiante y lo más probable es que tengamos que adaptarnos y reinventarnos varias veces en nuestra vida, por lo que deberíamos trabajar nuevas habilidades. Habilidades como la capacidad de aprender, desaprender y reaprender serán más importantes que muchas materias concretas. Otras habilidades psicológicas que se explican en conceptos como la autoeficacia creo que también serán muy útiles para nuestra vida.

    ¿Y a una persona que se encuentre ahora en la universidad?

    Pues parecido. Actualmente la educación universitaria (salvo algunas excepciones) no ha cambiado mucho respecto a cómo se hacía en los últimos siglos. Independientemente del medio –presencial u online–, un profesor dando la lección a muchos alumnos y evaluando con un sistema de controles o exámenes.

    En un mundo actual con “titulitis”, creo que el título cada vez debería ser menos importante y dar más valor a las habilidades de cada persona. De hecho, en nuestra empresa, Sherpa.ai, en muchos casos, tener el título no es un requisito, pero sí tener ciertas habilidades. Es cierto que el título da seguridad a ciertas entidades pero yo, personalmente, muy, muy poco de lo que estudié en la carrera lo estoy aplicando en mi vida laboral actual. Deberíamos ser capaces de reducir el tiempo universitario y enfocarlo más al mundo laboral y al aprendizaje continuo.

    ¿Por qué hablamos tanto de ética cuando tratamos sobre inteligencia artificial?

    La inteligencia artificial y la ciencia en general son neutras, ni buenas ni malas. Depende del uso que se haga de ellas. En este sentido, el gran neurobiólogo Rafa Yuste y yo hemos considerado importante desarrollar un código ético que sitúe a las personas en el centro y garantice que los desarrollos en IA contribuyan al bienestar de la sociedad.

    Actualmente estamos trabajando en una propuesta a la que llamamos “juramento tecnocrático”, una especie de código ético que debería ser un requisito para poder dedicarse a este campo, en analogía con el juramento hipocrático de la Medicina. Estas reglas deontológicas deberían ser asumidas por todas las compañías desarrolladoras de inteligencia artificial, con el objetivo de garantizar que los avances que se consigan contribuyan a mejorar el bienestar humano y del planeta.

    ¿Habrá robots mejores que los humanos?

    Muchas veces asociamos la inteligencia artificial a robots futuristas o a máquinas que nos hablan. Pero la IA va mucho más allá, es y debe ser un complemento para el ser humano, no un sustituto. Una herramienta para hacer nuestra vida más fácil. Actualmente, hay muchos sistemas con IA que nos ayudan en nuestra vida cotidiana, como el reconocimiento de la huella dactilar o facial para desbloquear el móvil, el sistema del parking que lee la matrícula o aplicaciones más sofisticadas en el sector de la salud que ayudan a detectar cánceres donde el ojo humano no puede.

    Si las máquinas nos van a liberar de muchas tareas, ¿a qué nos vamos a dedicar los humanos?

    Aquí veo dos etapas. La más cercana, en la que se crearán nuevas actividades socioeconómicas y, con ellas, nuevas oportunidades laborales. También otras desaparecerán. En la etapa más lejana, a la que quizás te refieres, es ese punto de singularidad en el que las máquinas harán todo el trabajo productivo. Esta situación utópica en la que, si las máquinas crean riqueza por sí solas, tendremos que preocuparnos de que esa riqueza se distribuya igualitariamente.

    ¿Entonces vamos a vivir mejor?

    Vivir más, seguro; vivir con mayor calidad de vida, también. Vivir mejor, creo que depende de otros muchos factores. El gran reto que tenemos todos es ser felices. Aunque en eso la ciencia también tendrá mucho que aportar en el futuro.

    La versión original de esta entrevista aparece en el número 115 de la Revista Telos, de Fundación Telefónica

    Fuente: . Autor: