<![CDATA[EL PAÍS]]>https://elpais.comThu, 05 Sep 2024 05:11:33 +0000es-ES1hourly1<![CDATA[“Te he enviado un desnudo, ahora te toca a ti”. Radiografía de la extorsión y venganza con imágenes sexuales]]>https://elpais.com/tecnologia/2024-09-05/te-he-enviado-un-desnudo-ahora-te-toca-a-ti-radiografia-de-la-extorsion-y-venganza-con-imagenes-sexuales.htmlhttps://elpais.com/tecnologia/2024-09-05/te-he-enviado-un-desnudo-ahora-te-toca-a-ti-radiografia-de-la-extorsion-y-venganza-con-imagenes-sexuales.htmlThu, 05 Sep 2024 03:20:00 +0000Todo comenzó como un juego. “Ya te he enviado una foto mía desnudo. Ahora te toca a ti”. Marcos (nombre ficticio para preservar el anonimato de la víctima) recibió este mensaje tras el comienzo de una relación a distancia con un chico a través de una aplicación de citas. El intercambio de imágenes sexuales es común y está presente en las relaciones humanas desde siempre. Según los descendientes del estadista estadounidense Daniel Webster (1782-1852), la miniatura Beauty revealed (Belleza revelada), expuesta en el Metropolitan Museum of Art de Nueva York con esta misma explicación, es un autorretrato de sus pechos desnudos que le envió la pintora Sarah Goodridge en 1828. Un 24% de la población recurre a este intercambio, según un estudio de Censuswide en mayo para Kaspersky con 9.033 encuestados de 12 países, incluida España. Pero esta práctica, que forma parte del ritual de seducción, especialmente entre los más jóvenes (42% en los grupos de edad de 16 a 24 años), convierte internet en una selva. Las denuncias en España por divulgación de imágenes sin consentimiento han pasado de 1.691 en 2018 a 4.460 el pasado año, según datos del Ministerio del Interior. Y son solo los casos que se denuncian. La mayor parte sufre este infierno en la intimidad durante años.

El calvario comenzó para Marcos hace cuatro años y aún no se ha cerrado “Yo acababa de terminar una relación y conocí a una persona por una de esas aplicaciones de citas. Te encuentras un poco solo y te metes por curiosidad, aunque al principio sentía recelo”, relata por teléfono. La relación parecía ir bien y pasa a una plataforma de videollamadas. “Me decía que era de Granada y nos pasamos tres semanas hablando. Una noche, la conversación comienza a subir de tono y me envía una foto de un desnudo que decía que era de él [después se comprobó que era falso]. ‘Ahora te toca a ti’, me dijo. Cometí el error de seguirle el juego”, recuerda nervioso. Las consecuencias de ese juego aún perduran.

Durante las primeras semanas no pasó nada. Marcos, aún con secuelas de la reciente ruptura y atraído por las fotos que recibía, profundiza en la relación y comparte no solo imágenes, sino infinidad de datos personales que, sin saberlo entonces, servían para armar la ingeniería social (técnicas de manipulación que aprovechan el error humano para obtener información privada o acceso a sistemas, claves y documentos) que emplearía el extorsionador más tarde.

Le confesó que su familia era de profundas convicciones católicas y que les había ocultado su homosexualidad, le facilitó cuentas personales con el fin de afianzar la relación. Pero él no correspondía y le decía que no usaba plataformas de mensajería ni redes sociales. Cuando Marcos empezó a cuestionarle la desproporción de información compartida, donde él se había abierto mientras la otra persona limitaba cualquier información, aparece en la relación virtual una tercera persona.

Comienza la extorsión

Esa persona, que más tarde se comprobaría que era el mismo delincuente, se identifica como amigo del joven que decía ser de Granada y le revela el objetivo real de la relación: “He visto contenido sexual tuyo y, si no quieres que se publique en Internet, tienes que mandar más fotos”.

El supuesto joven con el que comenzó la relación le confirma que es un conocido y le advierte: “Hazle caso porque es muy malo y cumple sus amenazas”. Y por supuesto que se cumplen. El contenido se publica y el extorsionador sigue ejecutando la compleja ingeniería social de la sextorsión, las coacciones con imágenes sexuales explícitas. Cuando hace de tercera persona mantiene la línea de amenazas y, cuando ejerce de amigo, intenta restarle importancia. “Pero si tienes varios me gusta. No seas tonto, pasa más contenido. No pasa nada”, le decía.

Marcos no hace caso y comienzan a reclamarle dinero por frenar la difusión del contenido. Empiezan por 300 euros y llegan a reclamarle 2.000. El joven acude entonces a la policía, donde no encuentra apoyo. “Bueno, ya ha pasado”, le dijo el primer agente que escuchó su relato. Finalmente le sugieren que bloquee sus redes sociales y cualquier comunicación.

Pero no es suficiente. El contenido ya publicado y la posibilidad de que llegara a su círculo de amigos y, sobre todo, a la familia, le desespera. A través de internet se topa con Stop Violencia de Género Digital, una asociación de ayuda a las víctimas de cualquier agresión en internet que comenzó como herramienta contra el machismo y se diversificó ante la multiplicación de casos en todos los ámbitos.

La organización le presta las herramientas que precisa: asistencia psicológica para afrontar el trauma, consejos para advertir de la experiencia a los círculos a los que les podía llegar el contenido y herramientas legales para denunciar y perseguir al extorsionador.

El delincuente ha sido identificado. Es de nacionalidad española, pero se cree que hoy puede tener residencia en el extranjero. “No hay fecha de juicio. A estos casos no se les da la importancia que tienen y pueden pasar años”, lamenta Encarni Iglesias, presidenta de la asociación.

Violencia digital

La responsable de la ONG advierte de la proliferación de casos de violencia digital y sospecha que está detrás del aumento de suicidios adolescentes. Iglesias advierte que una de las claves es no acceder al chantaje en ningún momento. “Si lo hacen una vez, no van a terminar nunca”, alerta. Y, por supuesto, denunciar. “Los números oficiales son una mínima parte de lo que hay. La vergüenza impide conocer la verdad y poner los medios. Pero las víctimas no cometen delito alguno; los delincuentes sí”, enfatiza.

La presidenta de Stop Violencia de Género cree que la convivencia con internet es inevitable, por lo que aboga por la educación en todas las esferas para reducir y perseguir su uso como arma. Esto incluye a las fuerzas de seguridad, a los usuarios, a los padres y también a los legisladores. “Los delitos por internet y su difusión son superrápidos, pero la justicia no. Hay un desequilibrio total”, lamenta.

La extorsión es solo una rama de la violencia digital con imágenes sexuales. Otra de las variantes más comunes, vinculada mayoritariamente con el machismo, es la pornovenganza, la difusión de imágenes sexuales sin consentimiento para socavar a la víctima.

El informe La verdad al desnudo de Kaspersky recoge relatos sobrecogedores de víctimas, como el de Alice, quien descubrió tras la muerte de su esposo, después de 10 años de matrimonio, que él le había tomado fotos desnuda sin ella saberlo (“cuando dormía o no era consciente”, detalla) y las había compartido en internet: “Empecé a recibir mensajes de desconocidos que decían haber visto mis desnudos. Creí que era correo basura, pero una amiga me llamó diciéndome que me había visto y recibí una captura de pantalla que mostraba mi nombre completo en una web de contenido pornográfico”, relata a la empresa internacional de seguridad en internet.

Aaliyah, una mujer británica de origen paquistaní de 22 años, tuvo que recurrir a Revenge Porn Helpline, una entidad de ayuda para estos delitos, tras descubrir que una expareja había compartido sin su consentimiento imágenes íntimas suyas en una página web para adultos como venganza por la ruptura.

Son casos, cada vez más frecuentes, impulsados por la facilidad de capturar y almacenar imágenes en dispositivos domésticos generalizados. Casi la mitad (47%) de los encuestados por Censuswide en España conoce a alguien que ha experimentado abusos con fotos íntimas y un 7% reconoce haberlo sufrido personalmente.

Esta cifra, según el mismo estudio, aumenta significativamente entre las generaciones más jóvenes: el 77% de los encuestados de entre 16 y 24 años ha sido víctima o conoce a alguien que lo ha sido. La cifra es solo nueve puntos inferior (68%) entre los encuestados de entre 25 y 34 años. Sin embargo, a pesar del riesgo de perder el control sobre estos contenidos, solo el 22 % de los encuestados en España que habían compartido una imagen había pedido su borrado a la persona destinataria.

David Emm, del Equipo Global de Investigación y Análisis de Kaspersky, reconoce que “en 2024, enviar y compartir contenidos es parte de la cultura digital”. “Pero saber cómo y cuándo hacerlo de forma segura y comprender qué hacer si se cambia de opinión es crucial”, añade.

Coincide Marc Rivero, jefe de seguridad de la misma compañía, tras la publicación del informe: “Los hallazgos de nuestra investigación subrayan la creciente normalización de un problema social crítico: el aumento del intercambio de imágenes íntimas, especialmente entre los jóvenes, sin considerar las consecuencias a largo plazo. La tecnología facilita la captura y difusión de estas imágenes y se han producido cambios significativos en el comportamiento y las actitudes hacia las citas digitales, lo que acelera la tendencia a compartir mensajes íntimos. Ser conscientes de los riesgos que se corren es importante para tomar decisiones digitales más informadas”.

Emm recomienda reflexionar antes de enviar, conocer bien al destinatario, prever la posibilidad de que se difunda y utilizar plataformas que solo permitan la visualización a la persona elegida.

“Aunque existen mecanismos de ayuda disponibles para eliminar imágenes no deseadas de páginas web, es esencial recordar que una vez que pulsas enviar, pierdes el control sobre esa imagen. Del mismo modo, si recibes una imagen que no deberías compartir, párate un momento a pensar cómo la tratarás. ¿Qué te gustaría que hiciera alguien si recibiera una imagen tuya?”, reflexiona.

Puedes seguir a EL PAÍS Tecnología en Facebook y X o apuntarte aquí para recibir nuestra newsletter semanal.

Seguir leyendo

]]>
MET
<![CDATA[Brasil cierra X por orden judicial en medio de las amenazas de Elon Musk]]>https://elpais.com/tecnologia/2024-08-31/elon-musk-se-revuelve-contra-el-cierre-de-x-en-brasil-y-amenaza-con-denunciar-al-juez-que-lo-ha-ordenado.htmlhttps://elpais.com/tecnologia/2024-08-31/elon-musk-se-revuelve-contra-el-cierre-de-x-en-brasil-y-amenaza-con-denunciar-al-juez-que-lo-ha-ordenado.htmlSat, 31 Aug 2024 16:25:11 +0000Brasil ha amanecido este sábado sin X, el antiguo Twitter. Al entrar en la red social, el usuario ve el siguiente mensaje: “Los post no se están cargando en este momento”. El cierre es la respuesta del juez brasileño Alexandre de Moraes al “reiterado incumplimiento de órdenes judiciales” por parte de la compañía de Elon Musk. Los 22 millones de tuiteros que accedían desde el país más poblado de América Latina (210 millones de habitantes) se quedaron sin servicio a partir de la medianoche, tanto en el ordenador como en el teléfono. Es uno de los mayores mercados de X en el mundo.

El dueño de la plataforma social, Elon Musk, se ha revuelto contra la decisión del juez del Tribunal Supremo que el viernes (medianoche en España) ordenó el cierre inmediato. El multimillonario estadounidense (de origen sudafricano) acusa al magistrado de ser “un dictador” y de dictar “órdenes ilegales para censurar a sus opositores políticos”. Y este sábado ha amenazado con comenzar a publicar el domingo “una larga lista de crímenes” del juez.

Símbolo de la defensa de la democracia en Brasil, principal investigador del intento de golpe bolsonarista en 2023 y cruzado contra la desinformación, De Moraes ordenó el viernes que la actividad de la popular red social fuera inmediatamente suspendida. El regulador de telecomunicaciones de Brasil, Anatel, requirió a los proveedores de servicios de Internet que cortaran el acceso, cosa que hicieron en las horas siguientes. El juez también impondrá una multa de 50.000 reales (unos 8.000 euros o 9.000 dólares ) para quien intente acceder a la plataforma vetada a través un VPN, que camufla el país donde está el usuario y es un sistema muy usado por disidentes en dictaduras.

De Moraes, el juez más famoso y poderoso de Brasil, ha cerrado X después de que la compañía de Musk se negara a bloquear seis perfiles de usuarios de la órbita del bolsonarismo acusados de difundir falsas informaciones. En ocasiones anteriores, la firma sí ha cumplido las demandas del juez de desactivar perfiles acusados de difundir noticias falsas. La plataforma y su dueño también se han negado a nombrar un representante legal en Brasil, como le exige la legislación brasileña. La clausura será levantada, según el fallo judicial, cuando X cumpla las órdenes de cerrar los perfiles sospechosos, pague las multas millonarias que lleva acumuladas y nombre un representante en Brasil.

El juez Alexandre de Moraes, quien ha ordenado el cierre de la red social X en Brasil.

Los tuiteros brasileños, muy activos siempre, han emprendido una migración en masa a otras redes sociales. Bluesky, cuyo aspecto y funciones son llamativamente parecidos a Twitter, ha informado de que en los últimos dos días ha sumado medio millón de usuarios. Otros se están trasladando a Threads. Brasil es uno de los países del mundo donde más horas navegan por Internet los ciudadanos.

La contundente medida del juez del Supremo brasileño supone la culminación del pulso público y legal que mantiene desde hace meses con Musk sobre los límites de la libertad de expresión y cómo combatir la desinformación, las noticias falsas y el discurso de odio.

De Moraes ordenó el cierre de X porque existe “un riesgo inminente” de que “grupos extremistas y milicias digitales prosigan y amplíen la instrumentalización de X Brasil con la divulgación masiva de discursos nazis, racistas, fascistas, de odio y antidemocráticos”. Esas amenazas son para el magistrado especialmente preocupantes a las puertas de las elecciones municipales, previstas para octubre.

Existen varios precedentes en Brasil de decisiones drásticas contra las grandes tecnológicas. En 2015 un juez clausuró temporalmente WhatsApp, el servicio de mensajería más utilizado ya entonces. Y el año pasado el propio De Moraes ordenó el cierre de Telegram aunque la compañía logró evitarlo al cumplir las exigencias del juez.

El magnate ha respondido que comenzará a publicar, a partir de este domingo, la “larga lista de crímenes” cometida por el magistrado, acompañada de una enumeración de “las leyes brasileñas que ha violado” con su dictamen.

“Está claro que no tiene por qué cumplir las leyes de Estados Unidos, pero debe cumplir las de su propio país”, ha declarado Musk en su cuenta de la red social de la que es propietario y donde ha acusado al magistrado de ser “un dictador y un fraude”. “El pueblo de Brasil conocerá sus crímenes. No importa cuánto se esfuerce en impedirlo”, ha añadido el magnate, quien califica X como “la fuente de noticias más usada en Brasil y la que quiere la gente”.

El propietario de X cerró la filial de la empresa en Brasil hace dos semanas y despidió a los 40 empleados locales como parte de este pleito judicial. En vista de que la firma dueña de X no tiene representante legal al que comunicarle las decisiones que le afectan, el magistrado decidió esta semana bloquear las cuentas de otra empresa de Musk, Starlink, cuyo servicio de Internet por satélite tiene 215.000 clientes en Brasil.

El juez, por su parte, justifica la decisión de bloquear X en que ciertas cuentas de “milicias digitales” investigadas en que difunden noticias falsas. Ya lo intentó durante el Gobierno de Jair Bolsonaro (2019-2022), pero estas órdenes no se cumplieron. El propio Musk está siendo investigado en Brasil por la presunta comisión de los delitos de obstrucción a la justicia, organización criminal e incitación al crimen. Es uno de los muchos casos de alto perfil que lleva el juez de Moraes, que lo incluyó como sospechoso el pasado abril, cuando ambos tuvieron su primer rifirrafe público.

El presidente de Brasil, Luiz Inácio Lula da Silva, ha defendido que todas las empresas que operan en el país deben cumplir con sus obligaciones legales. “El hecho de que un hombre tenga mucho dinero no significa que pueda faltarle el respeto (a la ley)”, dijo el líder izquierdista el viernes en una entrevista radiofónica. Anticipándose al cierre de X y como muchos brasileños, el presidente Lula recordó a sus seguidores en esa red que está en otras redes y enumeró sus perfiles en cada una de ellas. El cierre del antiguo Twitter significa, entre otras muchas cosas, la pérdida subita de millones de seguidores para políticos y personalidades brasileñas.

Musk respondió con una burla contra el mandatario, al que acusó de ser un “perro faldero” de Moraes. El magistrado avisó el viernes en un acto público que “aquellos que violan la democracia, que violan los derechos humanos fundamentales, ya sea en persona o a través de las redes sociales, deben rendir cuentas”.

Puedes seguir a EL PAÍS Tecnología en Facebook y X o apuntarte aquí para recibir nuestra newsletter semanal.

Seguir leyendo

]]>
Marc Piasecki
<![CDATA[El arsenal oculto de los billones de microbios que habitan nuestro cuerpo y que comemos]]>https://elpais.com/tecnologia/2024-08-29/el-arsenal-oculto-de-los-billones-de-microbios-que-habitan-nuestro-cuerpo-y-que-comemos.htmlhttps://elpais.com/tecnologia/2024-08-29/el-arsenal-oculto-de-los-billones-de-microbios-que-habitan-nuestro-cuerpo-y-que-comemos.htmlThu, 29 Aug 2024 15:12:41 +0000“Creí que era el principio de una nueva etapa y casi es el final”, admite apesadumbrado Manuel Carrasco, empleado en servicios municipales en Sevilla de 59 años. Entró en el hospital a principios del verano para que le retiraran una sonda tras un tratamiento oncológico. En cuestión de horas, una sepsis, una reacción extrema a una infección generada en esa simple intervención, le llevó a la UCI. Un mes después dejó el hospital tras sufrir amputaciones de los dedos por los efectos del ataque, que no respondió inicialmente a los tratamientos convencionales. Evitar estas afecciones y las 700.000 muertes que la Organización Mundial de la Salud calcula que se producen cada año por bacterias resistentes a los antibióticos es una carrera contra el reloj para la que dos investigaciones publicadas en Cell han abierto nuevas vías que están en nuestro interior: los microbios con los que convivimos (39 billones) y los que vienen con los alimentos cotidianos. Todos cuentan con un arsenal desconocido que utilizan para residir, interactuar y defenderse. Y esas armas pueden ser muy útiles.

César de la Fuente, biotecnólogo español de 38 años que dirige un laboratorio con su nombre en la Universidad de Pensilvania, lleva toda su vida investigadora rebuscando antibióticos eficaces que reemplacen a los existentes, frente a los que las bacterias aprenden a resistir. Ha hallado moléculas potenciales en nuestros antepasados, los neandertales, en especies extintas, como el mamut, y casi un millón de antibióticos nuevos en el microbioma global, según artículo reciente publicado en Cell. Una nueva investigación en colaboración con la profesora Ami Bhatt y su equipo en Stanford, publicada también por Cell, ha acercado la búsqueda hasta nosotros mismos y explorado nuestra piel y nuestro sistema digestivo, que son hábitats naturales para ese universo microscópico.

“En nuestro cuerpo existen billones de microbios compitiendo por espacio, obligados a atacarse y defenderse para sobrevivir en un entorno extremadamente hostil. Es una guerra química en la que los protagonistas son los microbios. Pensamos que este entorno es propicio para la innovación, permitiendo que los microbios produzcan nuevos compuestos”, explica por teléfono poco antes de dar una conferencia sobre sus hallazgos en Florencia (Italia), donde también ha sido galardonado con el Premio Bodanszky.

Al igual que sucede con los fragmentos de ADN que inicialmente se consideraban inútiles y que poco a poco desvelan su razón de ser, De la Fuente se ha fijado en todos los pequeños marcos de lectura abierta (smORF, acrónimo inglés para small open reading frame). “Son pedacitos [secuencias genéticas] que antes se pensaba que no hacían nada, que no tenían ningún tipo de función biológica”, simplifica para explicarlo. “Pero al analizarlos”, añade, “descubrimos que codifican moléculas antibióticas, que son funcionales”.

César de la Fuente.

A partir del análisis computacional de 444.054 proteínas provenientes de casi 2.000 microbiomas humanos, los equipos de la Universidad de Pensilvania y Stanford han encontrado más de 300 candidatos con capacidad antibiótica, de los que han seleccionado 78. El 70% de ellos funciona en cultivos de laboratorio y los más prometedores han mostrado eficacia en modelos preclínicos de ratones. “La actividad de algunas de estas moléculas es comparable a la de antibióticos existentes”, resalta. “La molécula más favorable la hemos bautizado con el nombre prevotelina y es producida por el microbio intestinal Prevotella copri. Es fascinante pensar en los microbios como farmacias que producen compuestos que pueden beneficiar al ser humano”, explica.

“Otra cosa interesante es que vimos que las moléculas pueden modular comunidades de bacterias beneficiosas. Creemos que podrían actuar en el microbioma humano para reprogramar estas comunidades”, añade.

Microbios en los alimentos

El estudio de César de la Fuente se ha adelantado a otro, con participación española y publicado también por Cell, donde los investigadores han desarrollado para el MASTER EU consortium una base de datos del “microbioma alimentario” mediante la secuenciación de los metagenomas de 2.533 comidas diferentes. El trabajo identifica 10.899 microbios asociados a los alimentos, la mitad de los cuales eran especies desconocidas hasta ahora. Estos microorganismos asociados a los alimentos representan un 3% del microbioma intestinal de los adultos y el 56% del microbioma intestinal de los bebés.

“Este es el estudio más grande de microbios en los alimentos”, dice el coautor y microbiólogo computacional Nicola Segata, de la Universidad de Trento y el Instituto Europeo de Oncología en Milán. “Ahora podemos comenzar a usar esta referencia para comprender mejor cómo la calidad, la conservación, la seguridad y otras características de los alimentos están relacionadas con los microbios que contienen”

El equipo analizó los metagenomas asociados a los alimentos de 50 países; el 65% de fuentes lácteas, el 17% de bebidas fermentadas y el 5% de carnes fermentadas. Además de las aplicaciones para mejora de los productos alimenticios, los investigadores destacan que, comprender el microbioma de los alimentos, puede beneficiar la salud humana de forma directa porque algunos de los microbios que comemos pueden convertirse en miembros estables de nuestro propio cuerpo.

Secuenciación de metagenomas de los alimentos.

De la Fuente resalta la importancia de estos estudios, complementarios a las investigaciones que desarrolla para identificar y desarrollar el microbioma más beneficioso.

Cristian Díaz-Muñoz, investigador en el Gastrointestinal Genetics Lab (CIC bioGUNE – BRTA), califica la base de datos desvelada como un “verdadero atlas para cualquier microbiólogo y, por tanto, un punto de partida para futuras investigaciones”.

En línea con De la Fuente, el investigador del centro vasco destaca en Science Media Center (SMC) España: “El vínculo entre la microbiología alimentaria y la microbiota humana confirma el dicho popular de que somos lo que comemos y reafirma las bases sobre las que asentar alimentos probióticos de calidad que contengan microorganismos con capacidad probada de colonizar el tracto digestivo y tener un efecto positivo sobre la salud intestinal”.

Baltasar Mayo Pérez, profesor de Investigación del CSIC en el Instituto de Productos Lácteos de Asturias, destaca a SMC que el trabajo “representa el mayor esfuerzo científico para la caracterización microbiológica de alimentos (…) utilizando las técnicas de secuenciación masiva de última generación y las más avanzadas herramientas informáticas”.

Puedes seguir a EL PAÍS Tecnología en Facebook y X o apuntarte aquí para recibir nuestra newsletter semanal.

Seguir leyendo

]]>
THOM LEACH / SCIENCE PHOTO LIBRA
<![CDATA[Fabricar un ordenador requiere casi una tonelada de materias, y las criptomonedas, tanta energía como Argentina]]>https://elpais.com/tecnologia/2024-08-20/fabricar-un-ordenador-comun-requiere-casi-una-tonelada-de-materias-y-la-criptomoneda-tanta-energia-como-argentina.htmlhttps://elpais.com/tecnologia/2024-08-20/fabricar-un-ordenador-comun-requiere-casi-una-tonelada-de-materias-y-la-criptomoneda-tanta-energia-como-argentina.htmlTue, 20 Aug 2024 03:20:00 +0000La digitalización deja huella, aunque sea invisible. Para fabricar un portátil común de dos kilogramos de peso se precisa casi una tonelada de materiales, unos 800 kilos. Detrás de la extracción de esos recursos, hay una huella aún más gigante. Un ejemplo: hacen falta dos millones de litros de agua para extraer 1.000 kilos de litio, el material básico de las actuales baterías. Y el uso de sistemas incrementa la lista de efectos colaterales. Solo la minería de criptomonedas aumentó su consumo de energía global aproximadamente 34 veces entre 2015 y 2023 y precisa anualmente 121 TWh de energía, la equivalente a la de un país como Argentina. El grupo de expertos de la ONU (UNCTAD) alerta de esta situación en su último informe sobre economía digital (Digital Economy Report 2024).

La estela que deja un avión es una pequeña muestra perceptible de la contaminación que genera el tráfico aéreo. Pero la digitalización no echa humo y sus efectos no son tan evidentes. Sin embargo, según el informe de la UNCTAD, “las emisiones de dióxido de carbono de las tecnologías de la información y la comunicación oscilan entre las 0,69 y las 1,6 gigatoneladas, entre el 1,5% y 3,2% de las emisiones globales de gases de efecto invernadero”.

Si se guardara toda la información digital actual en discos compactos apilados, la torre llegaría más allá de la Luna (más de 384.400 kilómetros), según un estudio publicado en Science. Solo los centros de datos necesarios para vehicular, almacenar y procesar esta ingente cantidad de información global consumieron 460 TWh de electricidad en 2022 (casi el doble que el consumo de un país como España), una cifra que se espera se duplique para 2026.

A estos datos más básicos hay que añadir la extracción de minerales críticos, como el grafito, el litio y el cobalto, que se prevé que aumente un 500% en 25 años o los residuos físicos de la digitalización, que creció un 30% en la última década. De estos, son los países desarrollados los que generan 3,25 kilos de desechos por persona frente al resto de países, que tiran entre 0,21 y un kilo. De toda esta basura, no se recoge formalmente ni el 24%.

La razón de este crecimiento es la digitalización general de la vida, que ha obligado a cuadruplicar la fabricación de semiconductores (los chips que conforman los cerebros mecánicos); el empuje de dispositivos en todos los ámbitos, que superarán los 39.000 millones en cinco años; y el comercio electrónico, con 27.000 millones en ventas hace dos años en solo 43 países.

Esta realidad, según António Guterres, secretario general de Naciones Unidas en relación con el Informe sobre la Economía Digital 2024, “destaca el impacto medioambiental directo de nuestra mayor dependencia de las herramientas digitales, desde el agotamiento de las materias primas, el uso del agua y la energía, la calidad del aire, la contaminación y la generación de residuos. Este [el perjuicio ecológico] se ve acentuado por tecnologías emergentes como la inteligencia artificial y el Internet de las cosas”.

Rebeca Grynspan, máxima responsable de la UNCTAD (la división tecnológica de la ONU), coincide: “La economía digital, a menudo elogiada por su naturaleza virtual e intangible, ha creado la ilusión de un mundo libre de residuos materiales. Sin embargo, este Informe revela con crudeza la falacia de esta percepción”.

No obstante, admite que existe un lado optimista en relación con el mundo informático. “A pesar de estos desafíos [el impacto en el planeta], la digitalización también tiene un inmenso potencial para el bien ambiental. Las tecnologías digitales pueden impulsar la eficiencia energética, optimizar el uso de los recursos y permitir soluciones innovadoras para la mitigación y adaptación al cambio climático”.

“Debemos aprovechar el poder de la digitalización para avanzar en un desarrollo inclusivo y sostenible, mientras mitigamos sus impactos ambientales negativos. Esto requiere un cambio hacia una economía digital circular, caracterizada por un consumo y producción responsables, el uso de energía renovable y una gestión integral de los residuos electrónicos. El creciente impacto ambiental de la economía digital puede revertirse”, afirma Grynspan.

Devoradoras de agua

El informe de Naciones subraya que, aunque la digitalización impulsa el crecimiento económico mundial y ofrece realmente oportunidades únicas pocas veces vistas, para los países en desarrollo hay repercusiones ambientales que son cada vez más serias y cada vez más graves”, resume Pablo Gámez Cersosimo, costarricense asentado en Países Bajos, desde donde es el máximo responsable de Naturally Digital, una organización especializada en sostenibilidad, comportamiento humano, ética y bienestar digital.

Gámez, autor de Depredadores digitales (Círculo Rojo, 2021), ha participado como investigador y consultor para la UNCTAD y resalta que el estudio identifica cómo, además de la huella de carbono, la digitalización está causando un problema hídrico, que considera uno de los problemas más complejos y problemáticos”.

“Me atrevería a asegurar que la suma total del agua que consumen todos los agentes involucrados en el funcionamiento de la rueda digital, por así llamarla, podría igualar o ser superior a la de la industria química o textil en el mundo”, afirma.

El agua está presente en todas las fases del ciclo de digitalización: para la fabricación de dispositivos, para el funcionamiento de centro de datos, para mantener activa la inteligencia artificial o para la creación de semiconductores.

Gámez detalla que “el consumo por persona y año de agua previsto en Europa pasará de los 0,29 metros cúbicos a 1,2 en 2030″, el cuádruple. “Esto quiere decir que cualquier europeo van a usar aproximadamente tres litros de agua por día para actividades en internet y esto supera la cantidad necesaria habitual”, incide.

El investigador lamenta la opacidad de las empresas tecnológicas en este ámbito, algo que impide la fiscalización, control, seguimiento y aplicación de medidas correctoras. “El ciberespacio tiene un límite respecto a los recursos naturales del planeta; es completamente dependiente de la minería, de toda la tabla periódica. Las grandes multinacionales lo saben, pero no están actuando lo suficiente para corregirlo, a pesar de que soluciones desde el punto de vista de madurez tecnológica”, asegura. Y añade: “Estas grandes corporaciones tecnológicas están lucrándose, están monetizando el antropoceno [época geológica marcada por el impacto global que las actividades humanas]”.

“El ciberespacio es literalmente la mayor infraestructura creada por el ser humano y no termina de crecer”, concluye.

Puedes seguir a EL PAÍS Tecnología en Facebook y X o apuntarte aquí para recibir nuestra newsletter semanal.

Seguir leyendo

]]>
Juan Ignacio Incardona
<![CDATA[Manuel Carranza, informático: “Las ventajas del coche sin conductor son tan evidentes que es casi imposible renunciar a él”]]>https://elpais.com/tecnologia/2024-08-10/manuel-carranza-informatico-las-ventajas-del-coche-sin-conductor-son-tan-evidentes-que-es-casi-imposible-renunciar-a-el.htmlhttps://elpais.com/tecnologia/2024-08-10/manuel-carranza-informatico-las-ventajas-del-coche-sin-conductor-son-tan-evidentes-que-es-casi-imposible-renunciar-a-el.htmlSat, 10 Aug 2024 03:20:00 +0000Podría estar trabajando en cualquier empresa y ganar mucho más dinero, pero Manuel Carranza García, profesor y doctor en el Departamento de Lenguajes y Sistemas Informáticos de la Universidad de Sevilla, es un docente vocacional y un investigador incansable, dos aspectos que considera inseparables. Nacido en la capital andaluza hace 28 años, se ha convertido de forma involuntaria en coleccionista de premios, que comenzaron con sus inmaculados expedientes académicos en todos los niveles. El último galardón lo recibe este mes de octubre, cuando vuelva de su viaje de novios: la Sociedad Científica Informática de España (SCIE) y la Fundación BBVA le han concedido el premio al mejor investigador joven por sus contribuciones en el campo de la inteligencia artificial, específicamente en los ámbitos de la conducción autónoma y el análisis de series temporales de datos.

Pregunta. Una reciente investigación considera que la conducción autónoma es más segura que la humana.

Respuesta. Donde se está obteniendo mayor éxito es en una autopista con los carriles muy delimitados y donde, más o menos, todo el mundo va a la misma velocidad. Es el entorno más seguro, pero, cuando entras en una ciudad, empieza el caos: peatones, ciclistas, giros, distintas velocidades. Se incrementan los factores que hay que controlar y es más difícil resolver el problema.

P. ¿Qué solución propone?

R. Los coches autónomos vienen con distintos sensores integrados, desde cámaras RGB, como las que tienen los móviles, hasta láser. Estos pueden ayudar a una mayor fiabilidad en las decisiones combinando la información. Por ejemplo, las cámaras normales, por la noche, no ven tanto como por el día. Sin embargo, los sensores láser no tienen esa limitación. Combinándolos, puedes ser capaz de mejorar la detección de los objetos que hay alrededor. Además, se puede combinar la información temporal, es decir, que el coche no utilice solamente lo que está viendo en ese momento, sino lo que ha visto los segundos anteriores para detectar si hay peatón o no.

P. Eso parece bastante conseguido, pero aún no pueden adivinar las intenciones de un peatón, por ejemplo.

R. Ese es un segundo problema, la predicción del movimiento en la que estamos trabajando: analizar los movimientos de los segundos anteriores para intentar adivinar qué es lo que va a hacer un peatón, un ciclista u otro vehículo. Es enseñar a la máquina sobre qué es lo que suele suceder habitualmente para que tenga una predicción con un alto porcentaje de confianza.

P. Pero siempre habrá incertidumbre.

R. Trabajamos siempre con una predicción asociada a una confianza, pero se puede estar el 99% seguro y el 1% de incertidumbre siempre lo tienes ahí.

P. Los más optimistas afirman que el vehículo autónomo está cerca.

R. En China ya está circulando. Ahora mismo parece que empieza a ser casi un programa legislativo más que tecnológico. Los desarrollos ya están ahí; tendrá fallos, como tenemos los humanos, y eso es también una cuestión legislativa. Pero los riesgos asociados a la conducción autónoma son mucho menores que las ventajas.

P. Entonces, ¿la conducción autónoma es más segura que la humana?

R. Ahora mismo no me aventuraría a decir que sí, pero, en el futuro próximo, seguro que sí, porque hay muchos factores de riesgo que se evitan, como conducir bajo los efectos del alcohol o el exceso de velocidad. Seguirá habiendo errores, pero llegará a un punto en el que las ventajas sean tan evidentes que será casi imposible renunciar a la conducción autónoma. Los accidentes de vehículos sin conductor son muy minoritarios en relación con los llevados por personas, aunque los primeros llaman más la atención. El problema va a ser el saber legislar accidentes, como quién es responsable. Es el típico dilema: si tienes que elegir entre atropellar a una persona u otra, ¿a quién elegir?

No hay solución informática para elegir a quién atropellar. Ahí entra la ética, no la tecnología

P. ¿A quién atropellaría la máquina?

R. No hay solución informática para eso. Ahí entra la ética, no la tecnología. La decisión final va a depender de nosotros, del programador que tiene que predecir cuál es la víctima potencial. Por eso, no solo tenemos que formar a los informáticos tecnológicamente, sino también en cuestiones de ética de responsabilidad.

P. ¿Por qué los drones avanzan a toda velocidad y los coches autónomos no?

R. Los algoritmos son muy similares para detectar qué está pasando y conocer el entorno, pero la convivencia con drones no tiene las mismas implicaciones que con los coches y eso complica mucho.

P. Otra de sus líneas de investigación es las previsiones en los sistemas eléctricos.

R. Mi grupo de investigación ha dedicado mucho tiempo al análisis de series temporales. Un ejemplo es la producción de energía. Puedes tener un histórico a lo largo del tiempo de cuánto se ha generado y consumido para una mejor gestión de los recursos. Podemos saber qué energía voy a necesitar mañana y predecir y gestionar mejor las infraestructuras de generación. Con las plantas termosolares trabajamos a muy corto plazo, en milisegundos, para asegurar que un espejo reciba la mayor radiación posible. También para predecir fallos. Estamos con un proyecto en el que un dron con cámara termográfica puede saber si hay un espejo o un tubo roto.

P. En una de sus investigaciones concluye que, entre los años 2016 y 2018, las tecnologías más contaminantes ofrecieron un precio más barato que las limpias.

R. Si. Eso es así. Al final, todo depende de la oferta y la demanda y, cuando hay mucha producción de un tipo de energía, hay que venderla o abaratar costes. Habrá un momento en el que la energía de fuentes renovables será más barata porque la mayoría de las inversiones está relacionada con eso; hay mucho esfuerzo de muchas empresas en ese sentido.

P. También ha analizado el consumo asociado al internet de las cosas. ¿Tanto consumen esos pequeños dispositivos?

R. El usuario de una casa normal no es consciente de cuánto está gastando cada electrodoméstico. Hay algunos que son dominantes y otros que dependen del momento del año. Los análisis pueden ser interesantes para saber cómo se comportan los hogares y que en qué época puede haber más o menos gasto. La información de todo lo que está pasando es fundamental tanto para los generadores de energía como para los usuarios. Si sumamos todo, puede ser bastante importante apagar una regleta antes de salir de casa.

Puedes seguir a EL PAÍS Tecnología en Facebook y X o apuntarte aquí para recibir nuestra newsletter semanal.

Seguir leyendo

]]>
PACO PUENTES
<![CDATA[La mayoría de las contraseñas se vulnera en menos de una hora y muchas, en solo un minuto]]>https://elpais.com/tecnologia/2024-06-22/la-mayoria-de-las-contrasenas-se-vulnera-en-menos-de-una-hora-y-muchas-en-solo-un-minuto.htmlhttps://elpais.com/tecnologia/2024-06-22/la-mayoria-de-las-contrasenas-se-vulnera-en-menos-de-una-hora-y-muchas-en-solo-un-minuto.htmlSat, 22 Jun 2024 03:20:00 +0000“Los humanos somos muy vulnerables”. Lo afirma Yuliya Novikova, responsable de Inteligencia de Huella Digital de la empresa de ciberseguridad Kaspersky, tras un exhaustivo estudio de 193 millones de contraseñas que ha demostrado que solo dos de cada diez son seguras. La mayoría puede averiguarse en una hora y muchas de ellas, en solo un minuto. Y el coste es mínimo, los canales de la dark web (la red oculta a los buscadores convencionales) y de Telegram donde se comercializan armas de la ciberdelincuencia, ofrecen paquetes “todo incluido”: programas, servidores en la nube y datos de víctimas potenciales por solo 80 euros a la semana.

“Nuestros datos son como nuestras casas. ¿La dejaría abierta para que entre cualquiera?”, pregunta Lilian Balatsou, experta en lingüística de inteligencia artificial y doctora en Neurociencia Cognitiva por la Universidad de Bangor durante un encuentro de la firma de ciberseguridad en Atenas. La respuesta, tras el estudio de Kaspersky, es que sí, que la casa la dejamos abierta la mitad de las veces.

Novikova explica que el 40% de los ataques (un tercio de ellos seguidos de secuestro y extorsión) comienzan con una cuenta comprometida. Los empleados y suministradores de compañías con usuario y contraseña para operar reconocen que vulneran las normas de las corporaciones sobre seguridad, por tedio o por realizar sus tareas sin complicaciones añadidas.

De esta forma, estos poseedores de llaves de la casa la utilizan mal y dejan el seguro sin poner o permiten que las copien, más de una vez en un 21% de los casos. “El error humano es la principal causa de incidentes”, advierte Novikova, quien detalla que estos se han llegado a infectar 10 millones de sistemas el pasado año, un 32% más que a principios de la década.

Según los datos de Kaspersky, el 45% de las contraseñas se vulneran en menos de un minuto, el 14% en menos de una hora y otro 14% más en un día o menos de un mes. De esta forma, solo poco más de dos de cada 10 claves de acceso a sistemas críticos son robustas.

El resto utiliza nombres o palabras comunes o términos del diccionario que, aunque estén alterados por números o signos que sustituyen letras, son fácilmente vulnerables. Detrás no hay un pirata (hacker) empleando su tiempo en descifrarlas. “Los ciberdelincuentes son muy creativos, pero también perezosos”, afirma la experta de la firma de seguridad para señalar que en los canales de venta de armas de ataques informáticos ya se ofrecen, por 80 euros la semana, paquetes de suscripción que incluyen no solo las bases de datos de las víctimas vulnerables, sino también los programas y los servidores para poder ejecutarlos sin infraestructura propia. Estos sistemas son capaces de vulnerar incluso los protocolos de autenticación de múltiples factores, los que solo facilitan el acceso de un usuario cuando aporta dos o más pruebas diferentes de su identidad.

Soluciones

Marco Preuss, director adjunto del Equipo Global de Investigación y Análisis (GReAT) y jefe del Centro de Investigación de Kaspersky Europa, desconfía incluso de los sistemas de identificación biométrica, que considera que implican además el uso de información personal.

De esta forma, los expertos que han participado en el encuentro en Atenas se decantan por la generalización de los gestores de contraseñas, programas que pueden almacenar de forma segura usuarios y claves de acceso singulares e incluso generarlas de forma robusta para cada uso.

Además de estos, las tácticas más efectivas son: utilizar una contraseña diferente por cada servicio para que, en caso de robo, solo se vea vulnerada una cuenta, recurrir a palabras poco comunes o desordenarlas, comprobar mediante servicios online la robustez de la elegida, evitar que respondan a datos personales a los que puedan tener acceso los piratas (como nombres y fechas personales que accesibles a través de las redes sociales) y habilitar la autenticación de doble factor (2FA).

Rafael Conde del Pozo, director de innovación de Softtek, añade un elemento más de riesgo: los teléfonos. Según explica, “los dispositivos móviles se han convertido en extensiones de nosotros mismos y precisan de una protección integral contra las vulnerabilidades emergentes”.

En este sentido, propone dotarlos de sistemas de autenticación biométrica avanzada, populares en el pago con móviles; de comportamiento, que analiza patrones que no encajan con el usuario; e inteligencia artificial para identificar anomalías, cifrar datos y restringir accesos.

Sobre vulnerabilidades de los móviles, la división de Inteligencia de Amenazas de Check Point ha identificado múltiples campañas que aprovechan Rafel RAT, una herramienta de código abierto para dispositivos Android que se desarrolló para campañas de phishing (engaño) a través de mensajes y conversaciones con el fin de que el usuario instale aplicaciones maliciosas encubiertas bajo un nombre y un icono falsos. Estas solicitan amplios permisos, muestran páginas web legítimas o las imitan y luego rastrean de forma secreta el dispositivo para filtrar datos.

Las medidas de seguridad implican a todo tipo de programas, incluidas las aplicaciones de redes sociales. La misma compañía de seguridad, tras detectar accesos ilegales a través de mensajes directos en TikTok, recomienda establecer contraseñas robustas, configurar la autenticación de doble factor a través de la página de seguridad de la red para activar la función “iniciar sesión con verificación” y comunicar cualquier actividad extraña. Una vulnerabilidad en esta red ha afectado recientemente a cuentas de medios de comunicación y de personajes populares.

Puedes seguir a EL PAÍS Tecnología en Facebook y X o apuntarte aquí para recibir nuestra newsletter semanal.

Seguir leyendo

]]>
kaspersky
<![CDATA[El sueño cumplido de un físico: la mayor planta termosolar industrial de Europa]]>https://elpais.com/tecnologia/2024-02-23/el-sueno-cumplido-de-un-fisico-la-mayor-planta-termosolar-industrial-de-europa.htmlhttps://elpais.com/tecnologia/2024-02-23/el-sueno-cumplido-de-un-fisico-la-mayor-planta-termosolar-industrial-de-europa.htmlFri, 23 Feb 2024 04:20:00 +0000La industria es una devoradora de recursos, algunos tan escasos como el agua y los combustibles fósiles, y contaminante. Sin embargo, convertir una fábrica en un centro independiente energéticamente, sin emisiones de CO₂ y que devuelva a los cauces el equivalente al suministro utilizado es posible y rentable. Fue la propuesta del doctor en física y catedrático de termodinámica de la Universidad de Sevilla Valeriano Ruiz hace cinco años. Hoy, el sueño de este referente en el sector de las energías limpias, al que no sobrevivió (falleció en 2021), es una realidad y un modelo tecnológico: la mayor planta termosolar industrial de Europa, instalada por la compañía Engie en la fábrica de cerveza de la multinacional Heineken en Sevilla.

Las instalaciones termosolares, que ocupan ocho hectáreas de los terrenos de la factoría, acaba de empezar a operar y ha reducido a más de la mitad el consumo de gas fósil para la energía térmica necesaria en el proceso de elaboración (cocción y pasteurización), que representa el 65% de su demanda. Esperan superar el 85% después de este año. El otro 35% de energía requerida es eléctrica, principalmente para embotellado y limpieza, y la generan ya por sus propios medios: una planta solar en Huelva y otra de biomasa en Jaén.

La inversión global de la compañía cervecera en sostenibilidad es de 30 millones de euros en los últimos dos años. El equivalente a dos tercios de esta cantidad (20.476.668 euros de los que 13.369.356 proceden de fondos europeos Feder) ha sido el coste de la planta construida por Engie en Sevilla, “Compensa. Los números salen”, afirma tajante Tomás Madueño, ingeniero de la multinacional que encargó el proyecto.

La estrategia difiere de la de otras compañías que se limitan a comprar energía adicional procedente de fuentes renovables para compensar sus balances de emisiones sin reducir el uso de fuentes contaminantes. “Una estrategia de compensación basada en los impactos de las emisiones operativas a corto plazo no dice nada sobre el efecto a largo plazo”, advierte Jesse Jenkins, profesor en del centro Andlinger para la Energía y el Medio Ambiente y coautor de un estudio de la Universidad de Princeton publicado en Joule.

Wilson Ricks, investigador de esta universidad de EE UU, añade: “Hay proyectos solares que no compiten con la energía basada en combustibles fósiles, sino con otros proyectos solares que podrían haberse construido en su lugar”. En su opinión, “el enfoque más rentable para que una empresa declare cero emisiones netas se basa, casi por completo, en la adquisición de suficiente energía solar o eólica para satisfacer su consumo anual”.

Sagrario Sáez, directora de sostenibilidad de Heineken, coincide. “Si el plan es compensar, pero sigues produciendo con energía no renovable, aumentan la producción y las emisiones”.

Con esta premisa de emisiones cero a partir de fuentes renovables suficientes para todo el proceso de producción nace la planta de Sevilla. Las ocho hectáreas de espejos parabólicos concentran la luz solar en un tubo central (captador) que, a diferencia de las instalaciones para generar electricidad por este sistema, en vez de aceite sintético contiene solo agua.

Este líquido, según explica Francisco Corral, ingeniero de Engie, alcanza 210 grados y se presuriza. De ahí pasa a un circuito secundario que, mediante intercambiadores, reduce a 160 grados la temperatura, la que necesita la planta para cocer el cereal y pausterizar el producto. La potencia de este proceso directo es de 30 megavatios térmicos (MWt) por hora.

Pero este sistema solo permitiría su utilización en condiciones óptimas. Para aprovechar toda la energía termosolar generada durante las horas de radiación solar y mantener la planta a pleno rendimiento de noche o en días sin sol, se creó un almacén para conservar 1.115 metros cúbicos de agua caliente. Son ocho tanques gigantes aislados con 200 milímetros de acero al carbono capaces de aportar 68 MWt.

Un empleado de la planta termosolar de Sevilla revisa los espejos parabólicos que captan los rayos del sol.Un empleado de la planta termosolar, a la salida de una de las secciones. En el eje central se aprecia el captador que consigue calentar el agua que contiene a 210 grados.Un operario revisa la conexión que da paso al agua calentada en los captadores mediante la concentración de los rayos del sol.Ocho depósitos con capacidad superior a los 1.000 metros cúbicos (a la derecha de la imagen) permiten almacenar el agua caliente para ser utilizada cuando no hay luz solar o esta es insuficiente.Ingenieros de la planta, junto a las válvulas y bombas del sistema de tuberías que conecta las instalaciones termosolares y los depósitos con la fábrica.Responsables de la planta termosolar, en la sala de control que monitoriza todo el proceso.

En los tanques, el agua se distribuye en capas de diferentes temperaturas monitorizadas permanentemente para liberar sólo la inferior cuando, enfriada por medios mecánicos, se encuentra a los grados requeridos. Un complejo sistema de tortuosas tuberías, diseñado para soportar la dilatación producida por el calor conecta directamente el agua de los captadores y la almacenada con la planta.

El principio es parecido al de los conocidos calentadores domésticos solares de agua, por lo que parece fácil pensar que su aplicación industrial era evidente. Sin embargo, toda la planta, única en Europa, se tuvo que generar desde cero. “Existía la tecnología, pero no a esta escala”, explica Corral mientras señala con la mano las instalaciones equivalentes a ocho campos de fútbol.

Tampoco se hizo antes porque era necesario que cuadraran las cuentas, que la inversión, al margen de la compensación medioambiental y social, fuera rentable, algo que la subida de los costes energéticos ha acelerado. La planta se ha construido en dos años, casi dos veces antes de lo previsto, en un proceso jaleado por los plazos para acceder a los fondos Feder y que ha supuesto 150.000 horas de trabajo.

Engie es ahora la constructora, propietaria y operadora de la planta. En 20 años la transferirá a su cliente, Heineken, un lustro antes del fin de la vida útil teórica de la instalación actual. “Pueden ser más”, matiza Corral. “Esa es la duración para las plantas de generación de electricidad, que soportan temperaturas de hasta 350 grados”.

Esa vida útil es clave en la rentabilidad de estas instalaciones. En este sentido, Stefaan De Wolf investigador del KAUST Solar Center y autor principal de un trabajo publicado en Science, advierte: “Los paneles solares desplegados deben tener una vida útil que dure décadas. Comprender las tasas de degradación es crucial para establecer precios y garantías competitivos”.

Vista de alguno de los paneles de la planta termosolar de uso industrial más grande de Europa, este martes.

Y, además de la razón económica, está la cuestión medioambiental por la generación de desechos cuando las plantas quedan obsoletas. Sagrario Sáez asegura que la política de cero residuos y reciclaje completo acordada para todo el proceso de producción se aplicará también a la nueva instalación. Los paneles utilizados son esencialmente espejos y prescinden de los materiales tóxicos y escasos de otros sistemas, como la perovskita.

Este proyecto se replicará, con diferente tecnología y escala, en la planta de Heineken en Valencia, que se inaugura este 28 de febrero, según las previsiones. Pero los creadores de todo el sistema creen que es aplicable a cualquier proceso industrial que precise de calor para la fabricación y cuente con terrenos junto a la factoría, ya que la distancia es el principal degradante de la potencia conseguida.

Agua

A pesar de que el sistema elegido (energía solar concentrada o CSP, por sus siglas en inglés) consume mucha menos agua que las plantas de torre central, el sueño de Valeriano Ruiz quedaba aún incompleto. Una fábrica de cerveza, por pura lógica, es una devoradora de agua. En sistemas tradicionales, se precisan más de tres litros de este recurso por cada uno de producto final.

La fábrica de Sevilla, donde el agua es petróleo, ha conseguido reducir esta proporción hasta los 2,6 litros por cada uno de cerveza. De este total, la mayor parte forma parte del producto que se consume (el 95% de una cerveza es agua), medio litro se evapora en el proceso y parte del resto se reutiliza en usos distintos al consumo. “Cada gota cuenta”, resalta Sagrario Sáez. Pero el objetivo era más ambicioso: recuperar 1.900 millones de litros.

La estrategia en este caso fue centrarse en los depósitos de agua de la naturaleza deteriorados e inutilizados por la acción humana. Un cauce, de forma natural, crea el equivalente a los tanques de tormentas artificiales, espacios donde se almacena el agua de las precipitaciones.

En el río Jarama de Madrid, una antigua cementera había anulado un humedal natural al crear un dique para evitar inundaciones en la planta. La factoría abandonó el enclave y dejó el tapón. La recuperación del espacio natural ha resucitado la laguna y las huellas de animales vuelven a marcar sus orillas. La misma estrategia se ha utilizado en varios enclaves del entorno de Doñana. En la Albufera valenciana, el objetivo fue eliminar kilómetros de cañas, una gramínea invasora introducida en el siglo XVI que altera el entorno y lo deseca.

La intervención en media docena de espacios naturales ha permitido la devolución a las cuencas de los millones de litros de agua previstos con una inversión de un millón de euros.

Puedes seguir a EL PAÍS Tecnología en Facebook y X o apuntarte aquí para recibir nuestra newsletter semanal.

Seguir leyendo

]]>
PEPO HERRERA
<![CDATA[Un estudio concluye que los coches sin conductor son más seguros que los llevados por personas]]>https://elpais.com/tecnologia/2024-06-18/un-estudio-concluye-que-los-coches-sin-conductor-son-mas-seguros-que-los-llevados-por-personas.htmlhttps://elpais.com/tecnologia/2024-06-18/un-estudio-concluye-que-los-coches-sin-conductor-son-mas-seguros-que-los-llevados-por-personas.htmlTue, 18 Jun 2024 15:00:05 +0000Los vehículos de conducción autónoma no terminan de despegar. Aunque pueden verse en media docena de ciudades de EE UU y China, su despliegue avanza lentamente y cualquier incidente supone un frenazo a su desarrollo. Sin embargo, la ruta de la automatización aporta ventajas. El 90% de los accidentes se produce por error humano y cualquier desarrollo tecnológico que corrija esta deficiencia puede reducir una tasa de sucesos que el pasado año costó la vida a 1.145 personas en España, según la Dirección General de Tráfico, y a 1,19 millones en el mundo, según la Organización Mundial de la Salud. Un estudio publicado hoy martes en Nature Communications demuestra que los vehículos autónomos son más seguros y menos propensos a verse involucrados en siniestros que los coches conducidos por humanos, salvo en dos circunstancias: en giros o en condiciones de baja visibilidad.

Mohamed Abdel-Aty y Shengxuan Ding, investigadores de Transporte, Ingeniería Eléctrica y Automotriz y Ciencias de la Computación de la Universidad Central de Florida, han llegado a esta conclusión tras analizar los datos de 2.100 vehículos de conducción autónoma y 35.133 coches con humanos al volante durante seis años. Los sistemas más avanzados de conducción, según el estudio, reducen entre un 50% y un 20% las posibilidades de colisiones por alcance, frontales y laterales, así como salidas de la vía, que suponen en España la causa de nueve de cada 10 accidentes.

En todos estos casos, los sistemas de conducción autónoma han demostrado ser más eficaces que los humanos. “Esto se debe a que están equipados con sensores y software [programas] avanzados que pueden analizar rápidamente el entorno circundante y tomar decisiones basadas en los datos recibidos. Hay muchos beneficios potenciales en la seguridad del tráfico, como la reducción del error humano, la fatiga y la distracción”, defienden los autores.

Sin embargo, en condiciones de poca visibilidad, al amanecer o al anochecer y en maniobras que implican giros, los humanos mejoran entre dos y cinco veces la eficacia de los sistemas autónomos. “Estas son las áreas en las que la tecnología de conducción autónoma puede necesitar un mayor refinamiento para igualar o superar las capacidades de conducción humana”, explican los autores.

De esta forma, según el estudio, la tecnología no supera al conductor en todas las circunstancias y los coches autónomos aún tiene que afrontar desafíos para incrementar su capacidad de percepción y detección de peligros, así como desarrollar la programación para la toma de decisiones y mecanismos a prueba de fallos. Estos últimos aún representan el 56% de los problemas de la conducción autónoma.

“El desarrollo de la seguridad de los vehículos automatizados implica detectores avanzados, algoritmos robustos y consideraciones de diseño inteligente. Las estrategias clave incluyen la mejora de los sensores meteorológicos y de iluminación, así como la integración eficaz de los datos”, explican los autores en un correo conjunto. Se refieren a soluciones tecnológicas, como el uso combinado de cámaras y sensores Lídar (láser), GNSS (navegación por satélite) y radar, que mejoran las capacidades autónomas en escenarios con nubosidad, nieve, lluvia y oscuridad, cuando un retraso en la detección de peligros potenciales y en la reacción adecuada puede ser mortal.

“La fusión de sensores”, según añaden los investigadores, “permite la verificación cruzada de la información, lo que reduce los errores. Sin embargo, el procesamiento de estos datos en tiempo real es un reto y requiere una potencia informática avanzada, lo que aumenta el coste y la complejidad de estos sistemas”.

“Es un reto importante generar suficiente información y lograr una detección exhaustiva del entorno circundante ante los limitados rangos de los sensores. Además, algunos vehículos autónomos están programados para seguir reglas y escenarios predefinidos que pueden no abarcar todas las situaciones de conducción posibles”, advierten los autores.

En este sentido, los investigadores destacan que los conductores humanos pueden “predecir los movimientos de los peatones y actuar con precaución en función de su experiencia de conducción, mientras que los vehículos autónomos pueden tener dificultades para reconocer las intenciones de una persona, lo que puede provocar frenadas de emergencia o accidentes debido a la falta de comprensión de las señales sociales y el razonamiento psicológico”.

Para mejorar esta deficiencia, Mohamed Abdel-Aty y Shengxuan Ding proponen “sistemas avanzados de detección y percepción, algoritmos predictivos y comunicación del vehículo con todo”. Este último concepto se conoce como V2X (vehículo a x) y hace referencia a que los dispositivos no solo detectan el peligro potencial e inician una maniobra para salvarlo, sino que lo comparten con los demás coches y sistemas de seguridad vial para que estos lo prevean. “Tanto los vehículos automatizados como los conductores humanos se enfrentan a desafíos con visibilidad limitada, pero los primeros pueden utilizar tecnologías y datos avanzados para una mejor asistencia de seguridad”, explican los autores.

Las investigaciones avanzan para dotar a los vehículos de sentidos parecidos a los humanos y mejorar la latencia (tiempo de respuesta). Dos trabajos publicados por Nature reflejan el desarrollo de un procesador para responder rápidamente a un evento con la mínima información y un nuevo sistema (algoritmo) para mejorar la precisión de la visión mecánica con menor latencia. En el mismo campo trabaja el Instituto de Microelectrónica (Imse) en la capital andaluza, del Consejo Superior de Investigaciones Científicas (CSIC) y la Universidad de Sevilla.

“Los sistemas actuales de asistencia al conductor, como los de MobileEye —que están integrados en más de 140 millones de automóviles en todo el mundo— funcionan con cámaras estándar que toman 30 fotogramas por segundo, es decir, una imagen cada 33 milisegundos. Además, requieren un mínimo de tres fotogramas para detectar de forma fiable a un peatón o a un coche. Esto eleva el tiempo total para iniciar la maniobra de frenado a 100 milisegundos. Nuestro sistema permite reducir este tiempo por debajo de un milisegundo sin necesidad de utilizar una cámara de alta velocidad, lo que supondría un enorme coste computacional”, explica Davide Scaramuzza, profesor de robótica en la Universidad de Zúrich (Suiza) e investigador de cámaras de eventos.

Bernabé Linares, profesor de investigación del Imse, desarrolla sistemas de visión que se asemejan a la percepción humana y que son fundamentales para los vehículos de conducción autónoma. “La retina biológica no toma imágenes. Toda la información va por el nervio óptico y el cerebro la procesa. En la cámara convencional, cada pixel es autónomo y, como mucho, se le hace interactuar con sus vecinos para ajustar la luminosidad. Pero una imagen digital a la salida de un túnel puede ser toda blanca o negra mientras que nosotros, salvo en condiciones muy extremas, podemos ver lo que hay dentro y fuera”, explica.

Otra solución es aplicar la inteligencia artificial para localizar los lugares más peligrosos e incluir esa información en los sistemas de conducción autónoma para condicionar sus maniobras. Es la línea de trabajo de Quynh Nguyen, epidemiólogo y estadístico de la Facultad de Salud Pública de la Universidad de Maryland que ha publicado un estudio en British Medical Journal (BMJ) of Injury Prevention. “Es crucial comprender cómo el entorno físico puede aumentar o disminuir las colisiones fatales y qué comunidades se ven más afectadas por esto”, argumenta Nguyen.

La Sociedad Química Americana (ACS por sus siglas en inglés) propone el uso de pinturas que hagan los objetos más visibles a los ojos de los vehículos. En este sentido, han desarrollado un “tinte negro altamente reflectante que podría ayudar a los coches autónomos a ver objetos oscuros y hacer que la conducción mecánica sea más segura”.

Investigadores de la Universidad de Iowa han investigado la posibilidad de dotar a los vehículos de una señal luminosa exterior que indique a los peatones cuándo es seguro cruzar ante un vehículo autónomo porque este ha identificado a la persona y se dispone a parar.

Todos los desarrollos se encaminan hacia la autonomía completa (Nivel 5), en la que no se requerirá la intervención humana. Según los investigadores de la Universidad Central de Florida, “puede llegar a ser posible, aunque faltan muchos años debido a importantes desafíos. Estos incluyen el desarrollo de algoritmos y sensores avanzados y las actualizaciones necesarias de la infraestructura para respaldar de manera efectiva la tecnología de los vehículos automatizados”.

Puedes seguir a EL PAÍS Tecnología en Facebook y X o apuntarte aquí para recibir nuestra newsletter semanal.

Seguir leyendo

]]>
Carlos Rosillo
<![CDATA[Europa apuesta por una inteligencia artificial que no alucine, industrial, fiable y menos costosa]]>https://elpais.com/tecnologia/2024-06-15/europa-apuesta-por-una-inteligencia-artificial-que-no-alucine-industrial-fiable-y-menos-costosa.htmlhttps://elpais.com/tecnologia/2024-06-15/europa-apuesta-por-una-inteligencia-artificial-que-no-alucine-industrial-fiable-y-menos-costosa.htmlSat, 15 Jun 2024 03:20:00 +0000Muchos resultados de los usos comunes de la inteligencia artificial (IA) popular, como Gemini de Google o ChatGPT de OpenAI, son propios de un cuñado en una cena de Navidad: capaz de hablar de todo con referencias poco fiables. El 20% de las respuestas de estos modelos presenta alucinaciones, salidas falsas con apariencia de verdad. Pero es la gran apuesta de los gigantes tecnológicos, principalmente de EE UU, que aspiran a convertir ese familiar en un asistente servicial que, además de hablar y crear imágenes, relatos o textos, analice y proponga soluciones (agentes). La industria de Europa, donde los auditores del Tribunal de Cuentas de la UE ven un riesgo de perder el tren de la IA, se desmarca de estos desarrollos. Apuestan por las aplicaciones empresariales, de menor tamaño, proporcionales a los procesos que se pretenden mejorar y que no alucinen. Son dos carreras paralelas con diferentes raíces y distintos objetivos. En este sentido, Siemens, en colaboración con Microsoft, acaba de lanzar, en la ciudad alemana de Múnich, un desarrollo de Copilot orientado específicamente a la automatización industrial.

Mihails Kozlovs, miembro del Tribunal de Cuentas que ha dirigido la última auditoría sobre la IA en Europa, advierte que esta tecnología condicionará el crecimiento económico de la UE en los próximos años y que obviarla puede relegar al continente: “En la carrera de la IA, existe el riesgo de que el ganador se quede con todo. Si la UE desea alcanzar sus objetivos, la Comisión y los Estados miembros deben aunar fuerzas de manera más eficaz, acelerar el ritmo y liberar el potencial de la UE para triunfar en esta importante revolución tecnológica en curso”.

Sin embargo, para Tom Hurd, investigador y creador de la organización Zeki para la identificación de expertos y tendencias en IA, la situación de Europa no es dramática sino distinta. Coincide en que es necesario estar porque, en su opinión, solo hay dos opciones: “o producir inteligencia artificial o esperar en la cola”. Pero considera que Europa, especialmente Alemania, Países Bajos, Reino Unido y Suiza, está en el primer grupo, según su capacidad de atraer talento. “España, Francia e Italia están empezando a cambiar”, precisa.

La diferencia, según este investigador, está en el modelo. Cree que Estados Unidos aún lidera el campo de equipos, programación y aplicaciones conversacionales, pero observa que los expertos empiezan a abandonar estas compañías (asegura que la mitad de ellos solo aguanta en estas 18 meses) y se decantan por empresas europeas, “más diversas e inclusivas”, según explica, y orientadas a la automatización en sectores como finanzas, industria, defensa y, sobre todo, salud.

Hay varias razones para esta tendencia. Una es de seguridad; según asegura Hurd, muchos abandonos en OpenAI se producen porque se percibe como de “alto riesgo”. Un grupo de 11 exempleados y trabajadores de esta compañía han publicado una carta en la que advierten de que la empresa da prioridad a los incentivos comerciales frente a los peligros de sistemas de IA cada vez más avanzados.

Otra razón principal es de inversión en un sector como las aplicaciones conversacionales que no despierta el interés europeo. “Cada versión de ChatGPT cuesta 10 veces más que la anterior. Ahí no somos competitivos”, admite Hurd. Un informe de la Universidad de Standford pone cifras más concretas: “Los costes de entrenamiento de los modelos de IA de última generación han alcanzado niveles sin precedentes. Por ejemplo, GPT-4 de OpenAI empleó unos 78 millones de dólares en esta tarea, mientras que Gemini Ultra de Google costó 191 millones de dólares”.

Michel May, investigador en inteligencia artificial de Siemens, coincide con Hurd en que la senda europea en este campo es distinta. “La industria tiene una tradición diferente. No lanza primero y después corrige, porque la confianza es prioritaria. Y no solo por cuestiones éticas”, afirma.

“La IA en la industria no puede permitirse alucinaciones”, añade Norbert Gaus, vicepresidente de investigación en la misma compañía. Se refiere a que un error en la respuesta de un robot conversacional en un trabajo escolar, una receta o una compra no es irreparable, mientras que en un proceso industrial puede ser catastrófico.

De esta forma, afirma que los desarrollos europeos están condicionados por la seguridad (es una de las principales preocupaciones de la industria continental por la normativa y por diferencias culturales, de acuerdo con el directivo), la fiabilidad, la confianza, y la eficiencia de los datos. Mientras un robot conversacional precisa de un gran modelo de lenguaje (LLM) con una ventana de contexto de billones de tokens (unidad básica de información que se puede entender como una palabra, número, símbolo o cualquier otro elemento individual que constituye una parte de los datos de entrada o salida del programa), una aplicación industrial, cuando se supera la fase de entrenamiento, no necesita un acelerador o un LLM, según explica Gaus.

Integrantes del centro tecnológico de Siemens en el campus de investigación de la Universidad de Múnich en Garching muestran el gemelo digital de un proceso industrial.

Esta estrategia no excluye el uso de plataformas como ChatGPT, pero con un uso limitado. En el laboratorio de robótica y gemelos industriales de la Universidad de Múnich y Siemens en el campus de investigación de Garching se utiliza para facilitar las órdenes para operar los sistemas. La inteligencia artificial crea los códigos necesarios para que las máquinas respondan a los requerimientos y ahorra decenas de horas de programación para cada tarea específica.

La línea de actuación europea es similar a los modelos de IA que propone IBM y que utilizan un rango de parámetros inferior al de sistemas de otras compañías. “Es la tendencia de la industria: obtener el rendimiento que se necesita para los casos de uso y a un coste asumible”, según resumió Darío Gil, vicepresidente de IBM en la presentación de su encuentro anual Think en Estados Unidos.

En este sentido, la inteligencia artificial industrial se alimenta solo de datos propios y fiables, los relevantes para el proceso que se pretende optimizar, y a un coste menor. Su objetivo es que sea flexible, abierta, servicial e interoperable, capaz de intercambiar datos de forma segura y automática, independientemente de los límites geográficos, de programación u organizativos.

Para Gaus, los desarrollos europeos “están ya en todas partes, aunque no los veamos”. Se utilizan en diseño, automatización, mantenimiento, en servicios y como herramienta de diagnóstico. Para Michael May es un “lanzador de la productividad que no reemplaza al humano porque siempre tiene que estar al final”.

Con estos criterios, Siemens, en colaboración de Microsoft, acaba de lanzar en Alemania una versión de Copilot (la IA de Microsoft) específicamente orientada a la industria, un camino comenzado hace poco más de un año con un arranque difícil. “Los primeros desarrollos parecían buenos, pero eran insuficientes”, admite Rainer Brehm, responsable de automatización en la multinacional alemana.

Con el objetivo de “apoyar al humano en la cadena de valor industrial”, el proceso ha ido madurando tras consolidar pruebas de concepto (implementación para verificar que la teoría puede ser desarrollada), adaptaciones, comprobaciones y experimentaciones operativas. “No es un producto, es la transformación de toda la organización”, resalta Brehm ante un desarrollo que, según anuncia, estará disponible en julio.

Esta orientación de la industria europea difiere en gran medida de los desarrollos más efectistas de otros gigantes volcados en agentes personales y coincide con la visión de otras grandes compañías, como IBM. “El enfoque que veo en Open AI y en Google”, explica Rob Thomas, jefe comercial y de programación de esta multinacional, “es a mercados muy diferentes, a la interacción con el consumidor. Este tipo de cosas no es nuestro enfoque, sino los casos de uso empresarial, el trabajo digital, que consiste en automatizar tareas repetitivas en una organización que luego se extiende a cosas como los datos y la gobernanza de la IA”.

Puedes seguir a EL PAÍS Tecnología en Facebook y X o apuntarte aquí para recibir nuestra newsletter semanal.

Seguir leyendo

]]>
Siemens
<![CDATA[El viudo por muerte informática o por qué es peligroso que la IA hable como Scarlett Johansson]]>https://elpais.com/tecnologia/2024-06-09/el-viudo-por-muerte-informatica-o-por-que-es-peligroso-que-la-ia-hable-como-scarlett-johansson.htmlhttps://elpais.com/tecnologia/2024-06-09/el-viudo-por-muerte-informatica-o-por-que-es-peligroso-que-la-ia-hable-como-scarlett-johansson.htmlSun, 09 Jun 2024 03:20:00 +0000Akihiko Kondo, que ha cumplido 41 años el pasado último día de mayo, se casó con el holograma de su cantante virtual favorita, Hatsune Miku, en una ceremonia simbólica hace seis años. Solo dos aniversarios después, Gatebox, la empresa responsable del avatar, dejó el servicio y el joven administrativo de una escuela pública japonesa enviudó por muerte informática. La historia de Kondo, aunque parezca extravagante, no es más que un anticipo de una realidad de consecuencias impredecibles: la sustitución de relaciones personales reales por agentes robotizados programados para responder al usuario según sus expectativas. El investigador y profesor de robótica de la Universidad de Sheffield Tony Prescott ha presentado el libro The Psychology of Artificial Intelligence (La psicología de la inteligencia artificial), con el que sostiene que la IA puede ser un paliativo de la soledad. Pero con riesgos, según admite él y decenas de investigadores.

Que ChatGPT-4o se presentara con una voz parecida a la de Scarlett Johansson no es casualidad. Los angloparlantes que vieron la película Her, escrita, dirigida y producida por Spike Jonze y galardonada con el Oscar al mejor guion en 2014, tardaron segundos en asociar el nuevo agente (asistente virtual) de Open AI con la actriz, cuya interacción termina enamorando al solitario protagonista.

El último informe del Laboratorio de Consumo e Industria de Ericsson (Ericsson Consumer & Industry Lab) refleja que “el 50% de los usuarios iniciales de la inteligencia artificial cree que las personas simularán sus matrimonios para anticipar cambios o incluso prever el divorcio”. Un abrumador 71% de estos consumidores de IA cree que esta utilidad será beneficiosa.

La sustitución de la interacción humana, con todas sus complejidades, por una relación híbrida entre humano y máquina implica muchas ventajas, pero también numerosos riesgos más reales e inmediatos que los reflejados en algunos capítulos de Black Mirror. “Los robots sociales están diseñados específicamente para interacciones personales que involucran emociones y sentimientos humanos. Pueden aportar beneficios, pero también causar daños emocionales a niveles muy básicos”, advierte Matthias Scheutz, director del Laboratorio de Interacción Humano-Robot en la Universidad de Tufts (EE UU).

La experiencia de Akihiko Kondo es un resumen de esta complejidad y difiere de otras más relacionadas con experiencias artísticas, como The Hybrid Couple de Alicia Framis, que simula un matrimonio con un holograma como reflexión, o Meirivone Rocha, una brasileña de 39 años que infló sus seguidores en las redes al difundir su supuesta boda con un muñeco.

El japonés, en una entrevista a la BBC, relata haber sufrido acoso por parte de compañeros, admite que los amigos a través de internet y los juegos siguen siendo su “comunidad” y confiesa que nunca ha tenido pareja: “He tenido algunos amores no correspondidos en los que yo siempre era rechazado y me hizo descartar la posibilidad de estar con alguien”. Soledad, acoso, dependencia psicológica y tecnológica, habilidades sociales limitadas, celibato involuntario (el peligroso movimiento en la red antesala de la violencia machista), satisfacción artificial de necesidades, compañeros virtuales con apariencia de realidad… La extravagante historia de Kondo abre la puerta a un análisis de las virtudes y peligros de la injerencia de la IA en las relaciones personales.

Ventajas

No son pocos ni simples los beneficios de una inteligencia artificial humanizadas.

Soledad. Prescott admite los riesgos, pero destaca una de las principales ventajas: “En una época en la que muchas personas describen sus vidas como solitarias, puede ser valioso tener la compañía de la IA como una forma de interacción social recíproca que sea estimulante y personalizada. La soledad humana a menudo se caracteriza por una espiral descendente en la que el aislamiento conduce a una autoestima más baja, lo que desalienta una mayor interacción con las personas. El compañerismo de la IA podría ayudar a romper este ciclo como andamiaje de la autoestima y ayudar a mantener o mejorar las habilidades sociales. Si es así, las relaciones con las IA podrían ayudar a las personas a encontrar compañía tanto con humanos como con otros artificiales”.

Cuidado. Joan Claire Tronto, profesora de ciencias políticas en la Universidad de Minnesota, amplía el concepto de cuidado (care) a todo aquello que “hacemos para mantener, continuar y reparar nuestro mundo con el fin de que podamos vivir en él lo mejor posible”. En su trabajo, una clave es “el compromiso de satisfacer las necesidades de los demás”. Y la IA puede hacerlo sin descanso. Luis Merino es catedrático de la Universidad Pablo de Olavide y responsable de robótica social, la disciplina destinada a asistencia de colectivos humanos de forma autónoma y con capacidad de aprender de las emociones de los destinatarios de los servicios: “El objetivo es que los robots entiendan nuestras intenciones y emociones y aprendan de ellas”.

Beneficio o interés. El máximo responsable de Open AI, Sam Altman, describe a su último modelo como “colega supercompetente”. El primer término hace referencia a su humanización y el segundo a los beneficios que aporta por la ejecución de tareas en nombre del usuario. Esta última ventaja aporta “bienestar individual”, según Brad Hooker, profesor de filosofía en la Universidad de Reading. Este interés es inherente a la interacción humana. No siempre se busca un beneficio, pero es difícil que una relación prospere si los costes superan constantemente a los beneficios.

Desarrollo humano. La IA puede promover actitudes y conductas que faciliten la realización personal y la interacción con los demás. En una evaluación de ChatGPT, Gemini y Llama (Meta), la Universidad de Illinois ha mostrado la importancia de esta habilidad. “Los agentes pueden ayudar a aumentar, por ejemplo, la conciencia sobre los comportamientos saludables, a comprometerse emocionalmente con los cambios y a darse cuenta de cómo sus hábitos podrían afectar a las personas que los rodean”, explica Michelle Bak, investigadora de los modelos.

Autonomía. Se refiere al potencial de la IA para aportar información relevante para que el individuo actúe y decida de acuerdo con sus propias motivaciones e intereses.

Riesgos

De cada una de estas categorías de ventajas surgen ramas de riesgos asociados. Estos son algunos destacados por los investigadores:

Daños físicos o emocionales. Las anécdotas de los primeros modelos de IA amenazando, insultando o promoviendo comportamientos dañinos o violentos no son nuevas, aunque periódicamente alimenten desproporcionadas e insustanciales reacciones. Hace un año que la cadena de supermercados Pak ‘n’ Save de Nueva Zelanda fue advertida porque su IA planificadora de menús recomendaba bebidas con cloro gaseoso y bocadillos con veneno y pegamento. Obviamente, nadie siguió estos consejos porque el sentido común prima, pero puede haber casos menos evidentes y extremos.

Amelia Glaese, investigadora de Google DeepMind y ahora de Open AI, busca fórmulas y sistemas para evitar estos accidentes. “Utilizamos el aprendizaje por refuerzo a partir de la retroalimentación humana para (…) que nuestro agente sea más útil e inofensivo y proporcione evidencias de las fuentes que respaldan las afirmaciones”.

La humanización del robot con empatía y herramientas de voz y vídeo añade peligrosidad al ofrecer una interacción más realista e inmersiva y hacer creer al usuario que están con un amigo o interlocutor de confianza. Una aplicación extrema puede ser la tentación de mantener una versión virtual de un ser querido fallecido y evitar así el duelo necesario para continuar la vida.

Los investigadores reclaman que estos desarrollos se prueben en circuitos cerrados (sandbox) antes de ofrecerse, se supervisen y evalúen de forma constante, se analice la variedad de daños que pueden causar en distintos ámbitos y se prevean fórmulas para mitigarlos.

Limitación del desarrollo personal. “Algunos usuarios buscan con sus compañeros de IA relaciones que estén libres de los obstáculos, sin opiniones, preferencias y normas que pueden entrar en conflicto con las suyas”, advierte un estudio de media docena de universidades para DeepMind. Y, además, con un lenguaje adulador.

Shannon Vallor, filósofa especializada en ética de la ciencia e inteligencia artificial, advierte sobre el peligro de que los nuevos sistemas promuevan relaciones “sin fricciones”, pero también sin valores: “No tienen la vida mental y moral que los humanos tenemos detrás de nuestras palabras y acciones”.

Ese tipo de relación supuestamente ideal, según estos expertos, desalienta la necesidad de cuestionarnos y avanzar en el desarrollo personal al mismo tiempo que promueve la renuncia a la interacción real y generar dependencia de esas máquinas dispuestas a halagar y buscar una satisfacción a corto plazo.

Manipulación. Esa dependencia emocional de un sistema capaz de persuadir es el acceso inmediato a la interferencia en los comportamientos, intereses, preferencias, creencias y valores de los usuarios, a su capacidad para tomar decisiones libres e informadas. “Las emociones que los usuarios sienten hacia sus asistentes podrían ser explotadas para manipularlos o, llevadas al extremo, coaccionarlos para creer, elegir o hacer algo que, de otro modo, no habrían creído, elegido o hecho”, advierte el documento de DeepMind.

Dependencia material. El final de la experiencia de Akihiko Kondo y su matrimonio virtual con un holograma es un claro ejemplo. Fue la empresa responsable de la programación y mantenimiento del sistema la que puso fin a la solución que encontró el administrativo japonés para satisfacer ciertas necesidades. Los desarrolladores pueden generar la dependencia y luego interrumpir la tecnología por la dinámica del mercado o los cambios normativos sin tomar las medidas adecuadas para mitigar los posibles daños al usuario.

Puedes seguir a EL PAÍS Tecnología en Facebook y X o apuntarte aquí para recibir nuestra newsletter semanal.

Seguir leyendo

]]>
Taro Karibe
<![CDATA[La inteligencia artificial resucita moléculas del mamut para crear antibióticos]]>https://elpais.com/ciencia/2024-06-11/la-inteligencia-artificial-resucita-moleculas-del-mamut-para-crear-antibioticos.htmlhttps://elpais.com/ciencia/2024-06-11/la-inteligencia-artificial-resucita-moleculas-del-mamut-para-crear-antibioticos.htmlTue, 11 Jun 2024 09:00:19 +0000En pocos años, morir de la frecuente neumonía bacteriana o de una común infección podría ser habitual. De todas las amenazas que afronta la humanidad, una de las 10 principales es la resistencia a los antibióticos, según la Organización Mundial de la Salud (OMS). De acuerdo con los datos de su grupo especializado (IACG, por sus siglas en inglés), las enfermedades farmacorresistentes podrían causar más de 10 millones de muertes anuales en 2050, más del doble que ahora. El biotecnólogo español César de la Fuente, investigador principal del laboratorio que lleva su nombre, también conocido como grupo Machine Biology de la Universidad de Pensilvania, lleva más de una década rebuscando, con ayuda de la inteligencia artificial y el aprendizaje profundo (deep learning), nuevas moléculas a las que los microorganismos no hayan aprendido aún a sobrevivir. Las ha encontrado, y resucitado, en nuestros antepasados neandertales y denisovanos. Ahora, según publica Nature Biomedical Engineering, en animales extintos, como el mamut. Una carrera contra el reloj en la que todo puede esconder una solución, desde las especies desaparecidas hasta la materia oscura microbiana, microorganismos que han dejado material genético en cualquier medio, pero que aún no se han cultivado en laboratorio.

De seguir como hasta ahora el ritmo de generación de resistencias a los antibióticos, la salud de la humanidad retrocederá un siglo, hasta la era previa a la penicilina. Impedir este gigantesco paso atrás es la misión de César de la Fuente y su laboratorio.

El hallazgo de compuestos con potencial antibiótico en neandertales y denisovanos les abrió la puerta a traspasar la frontera de lo existente y buscar en especies desaparecidas. “Nos animó a preguntarnos: ¿por qué no explorar todos los animales, todos los organismos extintos disponibles para la ciencia?”, explica De la Fuente, considerado uno de los 10 principales investigadores del mundo.

La clave ha sido la tecnología, cuya fusión con la biología permite desvelar mundos hasta ahora ocultos o ya desaparecidos. “Para poder explorar cientos de proteomas [conjunto completo de proteínas elaboradas por un organismo] al mismo tiempo, hemos tenido que desarrollar un modelo de inteligencia artificial más poderoso que el usado anteriormente. Creamos un modelo de deep learning que aúna lo último de la inteligencia artificial y de machine learning [aprendizaje automático] basado en redes neuronales”, detalla el investigador, que bautizó el sistema como APEX (Antibiotic Peptide de-Extinction o Desextinción de Péptidos Antibióticos).

“Nos permitió explorar organismos a lo largo de la historia evolutiva, incluidos los periodos del pleistoceno y el holoceno. Investigamos muchísimas especies, desde pingüinos extinguidos al mamut o el perezoso gigante que Charles Darwin descubrió en una de sus expediciones a la Patagonia”, relata.

De ese ingente trabajo se extrajo un total de 10.311.899 péptidos (cadenas cortas de aminoácidos vinculados por uniones químicas) y se identificaron 37.176 secuencias con actividad antimicrobiana de amplio espectro. Casi un tercio de ellas (11.035) no se encuentran en organismos existentes. “Como estamos trayendo de vuelta a la vida moléculas que existieron hace miles de años, las bacterias patógenas contemporáneas jamás las han visto y lo más probable es que no tengan mecanismos de resistencia”, explica.

Muchas de las secuencias han demostrado eficacia antimicrobiana in vitro (cajas de cultivo o placas de Petri) y algunas han sido capaces de matar bacterias patógenas contemporáneas en modelos de ratón de relevancia preclínica con una eficacia equiparable a la de antibióticos disponibles hoy y con dosis menores. Se han probado con accesos de piel e infecciones profundas del muslo.

Integrantes del equipo del Laboratorio de César de la Fuente.

Su origen, hasta ahora desconocido, ha obligado al equipo a desarrollar incluso una terminología nueva. En el caso del antepasado extinto del elefante, la pequeña proteína descubierta se denomina mamutsina; la procedente del Mylodon darwinii (el antepasado del perezoso descubierto por Darwin), mylodonina; y equusina es la hallada en la cebra actual y en sus antepasados.

El equipo también ha experimentado con la combinación de varias moléculas de una misma especie o de dos similares (mamut y elefante antiguo) por si potenciaban su actividad antimicrobiana frente a la proteína singular. También falta por observar si los microorganismos desarrollan resistencia a estos nuevos compuestos y en cuánto tiempo. “Está en la lista”, precisa De la Fuente.

“Este trabajo, nos permite ir al pasado y encontrar secuencias diferentes, una diversidad de moléculas que nos pueden ayudar a hacer frente a la resistencia a los antibióticos y, quizás, a otros problemas. Siempre pensamos en el ADN para explorar la vida, pero este trabajo propone empezar a usar moléculas como fuentes de información evolutiva, para ver cómo progresaron o qué tipo de mutaciones ocurrieron a lo largo del tiempo, para aprender más sobre nuestro propio sistema inmune y, quizás, predecir cómo va a evolucionar”, concluye.

El siguiente paso es formalizar con compañías farmacéuticas acuerdos y superar el nivel preclínico en modelos de ratón para pasar a ensayos en humanos o incluso crear una compañía surgida del laboratorio de César de la Fuente para culminar lo conseguido a nivel académico.

Luis Ostrosky, jefe de enfermedades infecciosas y epidemiología en UTHealth Houston (University of Texas Health Science Center) y ajeno a las investigaciones de De la Fuente, alaba la línea emprendida ante una emergencia que considera real. “Estamos en un tiempo de la historia de la medicina muy peligroso porque la resistencia antimicrobiana aumenta. En la práctica médica cotidiana encontramos infecciones que no son tratables con los antibióticos que existen ahora y eso es gravísimo porque la medicina depende del uso de antibióticos para cosas tan rutinarias como cirugías, terapias o trasplantes. Estamos llegando a la era posantibiótica, cuando ya no tendremos recursos que funcionen y estamos buscando nuevos constantemente”.

Estamos llegando a la era posantibiótica, cuando ya no tendremos recursos que funcionen y estamos buscando nuevos constantemente

Luis Ostrosky, jefe de enfermedades infecciosas y epidemiología en UTHealth Houston

En este sentido, el investigador, formado en la Universidad Nacional Autónoma de México, defiende todas las líneas de búsqueda. “Los mejores antibióticos que hemos tenido en la historia de la medicina vienen de la naturaleza”, resalta para indicar hallazgos en plantas, insectos y otros animales, como el tiburón. “Este tipo de investigación [la del César de la Fuente Lab] siempre me ha parecido muy interesante. Estamos viendo en especies extintas antibióticos que no han estado presentes en la naturaleza en miles o millones de años, por lo que no han sufrido la presión evolutiva”, señala

Ostrosky resalta que es una carrera permanente que cuenta con una dificultad añadida: “Los antibióticos no son un buen negocio para la industria farmacéutica porque generalmente sus cursos son muy cortos: los pacientes se curan rápido y en la industria farmacéutica el dinero está en las enfermedades crónicas. Constantemente vemos que salen del mercado después de 10 años y vuelven a entrar y a salir. Necesitamos un otro tipo de incentivos que nos den la seguridad de tener antibióticos que vamos a necesitar en el futuro”.

El especialista señala apoyos gubernamentales, que ya se han puesto en marcha en Europa y Estados Unidos, o un “modelo de suscripción” para que las compañías no dependan tanto de las ventas y que suponga un incentivo fijo. “Hay muchos modelos económicos, pero, en este momento, definitivamente, necesitamos un cambio de forma de pensar en la industria farmacéutica”. En este sentido, aboga por que la Organización Mundial de la Salud tome un papel más activo y en la colaboración de las agencias norteamericana y europea.

Defiende esta necesidad porque considera “atinada” y “realista” la alerta de la OMS. “Si no se actúa, podemos ver un mundo donde no sería seguro hacerse una cirugía o administrar quimioterapia, que reduce las defensas de los pacientes. Desgraciadamente, no es infrecuente tener conversaciones sobre el fin de la vida con algunos pacientes que tienen infecciones que no son tratables”.

Puedes seguir a MATERIA en Facebook, X e Instagram, o apuntarte aquí para recibir nuestra newsletter semanal.

Seguir leyendo

]]>
Eric Sucar / Universidad de Pensilvania
<![CDATA[No responda “sí” por teléfono: los robos de datos recientes avivan las campañas de fraude masivo]]>https://elpais.com/tecnologia/2024-06-08/no-responda-si-por-telefono-los-robos-de-datos-recientes-avivan-las-campanas-de-fraude-masivo.htmlhttps://elpais.com/tecnologia/2024-06-08/no-responda-si-por-telefono-los-robos-de-datos-recientes-avivan-las-campanas-de-fraude-masivo.htmlSat, 08 Jun 2024 03:20:00 +0000La última oleada de intentos de robos de datos a empresas e instituciones con millones de clientes, como Ticketmaster o la energética española Iberdrola o la Dirección General de Tráfico, no tiene solo como objetivo la extorsión a estas grandes entidades. La verdadera mina está en la información de miles de usuarios, que son las víctimas del 84% de las estafas por internet. A partir de ahora puede recibir centenares de correos falsos, ofertas increíbles y llamadas sospechosas. No responda con la palabra “sí”. Los ciberdelincuentes pueden grabarle y utilizarlo para usurpar su voz en la compra de bienes por teléfono o la contratación de productos financieros. Las fuerzas de seguridad y el Instituto Nacional de Ciberseguridad (Incibe) llevan un año advirtiendo de estas estafas. Desde ahora, responda “hola” y, si la conversación deriva a preguntas que persiguen una respuesta con un “sí”, evite la palabra, cuelgue y denuncie.

“Las llamadas telefónicas siguen siendo una forma común de comunicación e, independientemente de quién nos realice una llamada (amigos, familiares o desconocidos), es habitual responder con un simple . Sin embargo, pocos somos conscientes de los riesgos ocultos que pueden surgir al dar una respuesta tan aparentemente inofensiva”, advierte el Incibe en su blog y replica la policía en sus redes.

Así funciona la estafa del “sí”:

Llaman. Los ciberdelincuentes llaman a la potencial víctima afirmando ser de su banco o de un servicio de venta o de atención al cliente e incluso de la compañía de su ordenador o teléfono. Puede hacer que el número que figura en su pantalla coincida con el de estas entidades y, como ya tiene acceso a sus datos robados, intenta generar confianza en la víctima aportando información de la que dispone la entidad. Si ha respondido “sí” solo al descolgar, los ciberdelincuentes ya tienen lo que querían y cuelgan. Si responde “hola”, “dígame” o con cualquier otra expresión, intentarán continuar la conversación.

Preguntan. En este caso, el estafador establecerá un diálogo que busca su respuesta afirmativa e inequívoca. Quieren un “sí”. Puede ser: “¿Quiere este producto a un precio increíble por ser cliente?” o “¿está usted casado? o “¿piensa ir de vacaciones este verano?”. El ciberdelincuente necesita grabar la respuesta de forma inequívoca, así que lo intentará varias veces si no lo consigue a la primera y espaciará el tiempo entre pregunta y respuesta para obtener la grabación.

Usurpan. Una vez obtenida la voz de la víctima, el estafador intentará utilizarla para darse de alta en algún servicio bancario telefónico en nombre de la víctima o comprar algún producto en su nombre a través del móvil.

Qué hacer

Una de las primeras medidas es cambiar el hábito de respuestas y no contestar con un “sí”

Pero si lo ha hecho y sospecha de un intento de estafa, cuelgue sin aportar más datos personales. No favorezca la comunicación ni siga sus indicaciones sobre información personal o para pinchar en algún mensaje o correo que le envíen durante la llamada o después de esta.

Si en su teléfono figura el nombre de una entidad de confianza como llamante, póngase en contacto con la misma para verificar que es esta la que está detrás de la llamada.

Cambien las contraseñas de acceso a sus cuentas comerciales o financieras por otras únicas para cada servicio y complejas (números, letras mayúsculas y minúsculas y símbolos gráficos). Realice también un seguimiento ese día y los siguientes de las mismas. Si detecta algún movimiento sospechoso informe a la entidad.

Compruebe si sus datos de usuario y contraseña se han visto comprometidos. Hay herramientas gratuitas como haveibeenpwned.com o el servicio de revisión de contraseñas de Google.

Si detecta una actividad sospechosa, guarde cualquier archivo relacionado con la estafa como números del llamante, correos o mensajes que puedan estar relacionados con el delito para informar a las autoridades y tener pruebas de la estafa en caso de reclamación.

Denuncie si se produce la estafa ante las Fuerzas y Cuerpos de Seguridad del Estado y proporcione todos los detalles y evidencias.

Esta técnica de fraude se conoce como vishing (engaño mediante el uso de la voz) y utiliza ingeniería social para hacerse pasar por una entidad de confianza en la llamada y tecnologías de la información para suplantarle en la contratación o compra de bienes y servicios.

Los ciberdelincuentes no solo usurpan la identidad de compañías privadas. También pueden hacerse pasar por agentes que reclaman el pago de una infracción, por el servicio postal por un falso paquete recibido e incluso por la Agencia Tributaria para informar de una devolución inexistente.

Aumento de la incidencia del engaño

El Informe Phishing [engaño] 2024 de la compañía de seguridad Zscaler revela un “aumento interanual de casi el 60% en ataques de phishing a nivel global promovidos, en parte, por la proliferación de la inteligencia artificial generativa” para suplantar correos, sms, la voz o incluso imágenes mediante vídeos falsos hiperrealistas.

“El phishing sigue siendo una amenaza persistente y, a menudo, subestimada dentro del panorama de la ciberseguridad, pese a que se vuelve cada vez más sofisticada a medida que los actores de amenazas aprovechan los avances de vanguardia en IA generativa y manipulan plataformas de confianza para intensificar los ataques”, destaca Deepen Desai, jefe de investigación de seguridad de Zscaler.

Jurgen Kutscher, vicepresidente de Mandiant Consulting en Google Cloud coincide: “Cada cierto tiempo, los atacantes ponen al día las tácticas y procedimientos que utilizan para lograr sus objetivos, lo cual supone nuevos desafíos para los equipos de seguridad”.

Según el informe anual de esta compañía sobre Europa, Oriente Medio y Asia (EMEA), los exploits [programas que aprovechan un error o una vulnerabilidad de una aplicación o sistema para provocar un comportamiento involuntario o imprevisto] y el phishing siguen siendo amenazas clave, con una incidencia de entre el 16% y el 36%.

La empresa Check Point advierte que una de las tácticas comunes para el engaño es suplantar a una autoridad. “Por ejemplo”, explica la compañía, “el atacante puede fingir estar llamando para cobrar impuestos impagados. El miedo a las consecuencias puede hacer que las víctimas hagan lo que el atacante les dice. Este tipo de ataques costaron a las víctimas 124 millones de dólares en 2020, solo en Estados Unidos.

En este sentido, Marc Rivero, jefe de investigación de seguridad de Kaspersky advierte: “El phishing sigue siendo una amenaza constante en el panorama digital que evoluciona constantemente para engañar a usuarios desprevenidos. Nuestra mejor defensa es la vigilancia y el escepticismo. Pero también reconocemos que la lucha es un esfuerzo conjunto que requiere la colaboración de usuarios, empresas y autoridades. Es fundamental ser cautos, verificar antes de acceder a los enlaces y proteger nuestra identidad digital para garantizar la seguridad de todos”.

Puedes seguir a EL PAÍS Tecnología en Facebook y X o apuntarte aquí para recibir nuestra newsletter semanal.

Seguir leyendo

]]>
JUAN BARBOSA
<![CDATA[La era de los ‘hackeos’ masivos: qué hacer después y cómo defenderse]]>https://elpais.com/tecnologia/2024-06-02/la-era-de-los-hackeos-masivos-que-hacer-despues-y-como-defenderse.htmlhttps://elpais.com/tecnologia/2024-06-02/la-era-de-los-hackeos-masivos-que-hacer-despues-y-como-defenderse.htmlSun, 02 Jun 2024 03:20:00 +0000Si compró entradas en Ticketmaster, si participa en subastas de Christie’s, si tiene una cuenta en el Santander, un contrato con Telefónica, el servicio de Iberdrola o una matrícula de la DGT. Solo son los últimos motivos por los que sentirse vulnerable. Y no paran de crecer: como explica el especialista Jakub Kroustek: “Durante este 2024 se ha alcanzado la mayor ratio de riesgo cibernético de la historia”. Habla de particulares y también de grandes organizaciones, pero ¿qué hacer en ambos casos?

Los agentes de las fuerzas de seguridad siempre afirman que, para investigar un crimen, prefieren un móvil al registro de una casa. En un simple dispositivo hay más datos de la vida de su usuario que cualquier trastero olvidado o los armarios de una vivienda. Están hasta las llaves para entrar en los bancos y en las cuentas tanto profesionales como personales. Ese material es el que interesa a los delincuentes, que conforman un ejército esquivo, invisible e incansable. Pero es posible defenderse, aunque la permanente lucha agota y exige rutinas tediosas.

El investigador de Kaspersky Marc Rivero distingue entre dos ámbitos de defensa: “En el entorno empresarial, hay que elevar el nivel de madurez en seguridad, asociarse con quien te ayude a implementar medidas y disponer de tecnología para cubrir cada uno de los huecos. En los casos de usuarios, en caso de duda, siempre hay que contactar con la entidad si recibimos un correo o llamada que nos pida hacer algo, como pinchar un enlace o aportar claves. Es cuestión de sentido común y tener precaución”.

En este sentido, Luis Hidalgo, del Instituto Nacional de Ciberseguridad (Incibe), identifica un patrón peligroso en todos los niveles: “el clicador feliz” (happy clicker), que pincha de forma compulsiva en cada enlace que le llega. “Estos también están, y mucho, en las capas altas de una organización”, advierte. Todas las empresas de ciberseguridad insisten una y otra vez en una premisa: confianza cero.

De esta forma, una de las armas fundamentales es la formación personal en todos los ámbitos, desde el más particular al directivo de cualquier compañía. Pero los ataques persistirán, por lo que es necesario saber cómo actuar.

En caso de que una compañía de la que somos usuarios sufra un ataque, es crucial cambiar de inmediato las claves de acceso a sus servicios. Además, la Asociación Española de Consumidores aconseja a los clientes de estas empresas “rechazar cualquier tipo de contratación que se ofrezca de forma telefónica o a través de correo electrónico”. “Pedimos a los clientes que estén atentos a sus cuentas por si se produjeran cargos o movimientos de su dinero de manera indebida”, reclaman.

En el ámbito de las compras, es conveniente contar con una tarjeta de prepago que se recargue solo para las transacciones en internet y únicamente por la cantidad requerida en cada momento.

El Incibe cuenta con una guía práctica para los usuarios que se resume en las siguientes acciones: tener una contraseña robusta y distinta para cada uso, cambiarla si se ha visto vulnerada (hay herramientas gratuitas para saberlo como haveibeenpwned.com o en Google), disponer de autenticación múltiple si está disponible (puede incluir datos biométricos) y no clicar en enlaces de correos sospechosos o de ofertas increíbles. Por sistema, hay que evitar páginas no seguras o descargar programas no oficiales, borrar documentos que contengan información que comprometa la seguridad, no utilizar la cuenta de correo habitual para ofertas y promociones y mantener actualizados los sistemas operativos de los aparatos, para que estén corregidas las vulnerabilidades. También recomiendan evitar acceso a wifis gratuitas que no sean de confianza y asegurar los routers domésticos.

Puedes seguir a EL PAÍS Tecnología en Facebook y X o apuntarte aquí para recibir nuestra newsletter semanal.

Seguir leyendo

]]>
CRISTÓBAL CASTRO
<![CDATA[La ‘Starliner’ logra despegar con dos astronautas a bordo hacia la Estación Espacial Internacional]]>https://elpais.com/ciencia/2024-06-05/la-starliner-logra-despegar-con-dos-astronautas-a-bordo-hacia-la-estacion-espacial-internacional.htmlhttps://elpais.com/ciencia/2024-06-05/la-starliner-logra-despegar-con-dos-astronautas-a-bordo-hacia-la-estacion-espacial-internacional.htmlWed, 05 Jun 2024 15:02:14 +0000La Boeing Starliner, la nave tripulada que compite con la Crew Dragon de SpaceX en la carrera por establecer viajes regulares al espacio para la NASA, ha despegado este miércoles a las 16.52 hora española (10.52 de la mañana en Florida) desde las instalaciones de Cabo Cañaveral después de dos aplazamientos, el último a escasos tres minutos de la ignición. El artefacto, impulsado por un cohete Atlas V de United Launch Alliance (ULA), lleva a los astronautas Butch Wilmore y Suni Williams hasta la Estación Espacial Internacional (ISS, por sus siglas en inglés), donde permanecerán durante una semana antes de regresar a la Tierra.

El capitán de la Armada estadounidense Butch Wilmore y la piloto Suni Williams han permanecido a la espera tras la primera cancelación del vuelo el pasado 6 de mayo, cuando se detectó un fallo en la válvula de regulación de la presión de oxígeno del lanzador. Después de que la ULA reparara el dispositivo, en las pruebas preliminares al lanzamiento se detectó una fuga de helio en el módulo de servicio de la Starliner, lo que supuso la realización de nuevas pruebas. Finalmente, la operación se programó para el pasado sábado, pero un problema en el suministro de energía para las tarjetas informáticas que controlan el lanzador obligó a una suspensión a escasos 180 segundos del despegue. El fallo fue reparado el domingo y según la NASA, “la ULA ha completado las comprobaciones funcionales y todo el hardware [equipo informático] funciona con normalidad”.

El gerente del Programa de Tripulación Comercial de la NASA, Steve Stitch, ha calificado los retrasos como necesarios: “Ha sido importante que nos tomemos nuestro tiempo para comprender todas las complejidades de cada problema, incluidas las capacidades redundantes del sistema de propulsión y cualquier implicación para nuestra Interim Human Rating Certification [la certificación de que una nave espacial o vehículo de lanzamiento es capaz de transportar personas de forma segura]”.

El comandante Butch Wilmore (izq.) y la piloto Suni Williams, camino a la nave este miércoles en Cabo Cañaveral, Florida.

La Starliner de Boeing forma parte del programa de la NASA que busca empresas privadas para desarrollar servicios permanentes de transporte de personas y cargas, por el momento, hasta la ISS. La cápsula tiene una altura de cinco metros y un diámetro de 4,6. Está diseñada para ser reutilizada hasta 10 veces y llevar en cada viaje hasta siete personas, aunque las misiones previstas por la NASA para este programa de transporte comercial no superan los cinco tripulantes por viaje.

Los dos astronautas son veteranos pilotos de las Fuerzas Armadas estadounidenses y cada uno ha viajado ya a la ISS en dos ocasiones. Wilmore se ha mostrado confiado en la misión, que ha calificado de prueba. De esta forma, se analizará durante la misma todo el funcionamiento de la nave, que consideran segura. “No estaríamos aquí si no lo fuera”, ha manifestado el piloto en nombre de ambos tripulantes.

Durante el vuelo se realizarán pruebas en órbita del rendimiento del sistema de soporte vital, el control manual y automático de la nave y otros elementos críticos antes de acoplarse a la ISS. Después de una semana en la estación, los astronautas tienen previsto el aterrizaje en el suroeste de Estados Unidos. La Starliner descenderá con la ayuda de un sistema de paracaídas mejorado tras la detección de problemas en el sistema de despliegue y en unas cintas de fibras de vidrio que incluye. Esas deficiencias obligaron al primer aplazamiento el pasado 21 de julio.

El comandante Butch Wilmore (derecha) y la piloto Suni Williams, en la nave antes del lanzamiento.

“La NASA hace parecer que los viajes espaciales son fáciles, pero en realidad son bastante difíciles”, ha manifestado Wilmore para justificar los retrasos. No obstante, confía en la misión: “Hemos recibido capacitación y tenemos nuestras huellas dactilares en cada procedimiento que existe para esta nave espacial. Estamos completamente capacitados en todos los aspectos de Starliner”, asegura el astronauta. “Nos sentimos muy seguros y cómodos. Aquí es donde se supone que debemos estar”, añade Williams.

Boeing ya lanzó con éxito dos misiones sin tripulación. Durante la última, el 19 de mayo de 2022, la nave CST-100 Starliner atracó al día siguiente en la ISS, permaneció cuatro días y aterrizó finalmente en Nuevo México (EE UU).

El coste del contrato de la NASA con Boeing para desarrollar la Starliner se firmó hace 10 años por 4.200 millones de dólares, una cantidad que ha sido revisada periódicamente y se ha elevado a 4.500 millones.

Puedes seguir a MATERIA en Facebook, X e Instagram, o apuntarte aquí para recibir nuestra newsletter semanal.

Seguir leyendo

]]>
Associated Press/LaPresse
<![CDATA[Desvelado el mayor catálogo de nuevas moléculas antibióticas: casi un millón de compuestos desconocidos]]>https://elpais.com/ciencia/2024-06-05/desvelado-el-mayor-catalogo-de-nuevas-moleculas-antibioticas-casi-un-millon-de-compuestos-desconocidos.htmlhttps://elpais.com/ciencia/2024-06-05/desvelado-el-mayor-catalogo-de-nuevas-moleculas-antibioticas-casi-un-millon-de-compuestos-desconocidos.htmlWed, 05 Jun 2024 15:01:35 +0000Cuando el francés Ernest Duchesne halló la penicilina en 1897 y la redescubrió Alexander Fleming en 1928, la salud de la humanidad dio un paso de gigante. Por primera vez, las posibilidades de morir por una infección descendían drásticamente. Sin embargo, el uso y abuso de antibióticos en los últimos 100 años ha enseñado a los patógenos microbianos a desarrollar defensas frente a la mejor arma farmacológica. Cada año, según The Lancet, casi cinco millones de personas mueren por microorganismos resistentes a los antibióticos actuales y es imprescindible encontrar nuevas moléculas efectivas. En esta lucha ineludible, los laboratorios del español César de la Fuente en la Universidad de Pensilvania y del portugués Luis Pedro Coelho en la Universidad de Tecnología de Queensland han descubierto, según publican en Cell, la mayor cantera del mundo (863.498 péptidos) de antimicrobianos a partir de los cuales se pueden desarrollar nuevos tratamientos.

Los investigadores han recurrido a la inteligencia artificial y al aprendizaje mecánico (machine learning) para rebuscar en cualquier parte —en el cuerpo humano (saliva o piel), animales (intestinos de los cerdos o corales), plantas, tierra, agua o seres extintos— una combinación de aminoácidos que tengan potencial antibiótico. Es lo que se conoce como materia oscura microbiana, microorganismos que han dejado material genético en cualquier medio, pero que aún no se han cultivado en laboratorio.

Del casi millón de moléculas halladas, nueve de cada 10 son inéditas y han tenido que ser bautizadas, como la lachnospirina y enterococcina, las más efectivas. “Nunca se habían descrito”, resalta De la Fuente. De esa ingente cantidad han conseguido probar un centenar a nivel preclínico (placas de Petri y ratones) en 11 cepas bacterianas causantes de enfermedades, incluidas cepas resistentes a los antibióticos de E. coli y Staphylococcus aureus. “Nuestra evaluación inicial reveló que 63 de estos candidatos erradicaron por completo el crecimiento de, al menos, uno de los patógenos probados y, a menudo, de múltiples cepas. En algunos casos, estas moléculas fueron efectivas contra las bacterias en dosis muy bajas”, explica el investigador coruñés, recientemente premiado en su tierra.

En un modelo preclínico probado en ratones infectados, el tratamiento con los nuevos péptidos produjo resultados similares a los efectos de la polimixina B, un antibiótico usado como control y disponible comercialmente que se utiliza para tratar la meningitis, la neumonía, la sepsis y las infecciones del tracto urinario.

Que ambos investigadores sean biotecnólogos ha permitido reducir a meses procesos que tardaban hasta una década. De esta forma, sus equipos analizaron bases de datos de 87.920 genomas de microbios y 63.410 metagenomas (mezclas de estos). Buscaban combinaciones de aminoácidos desconocidas para los patógenos que han desarrollado resistencia a los antibióticos actuales y responsables de lo que la Organización Mundial de la Salud considera una de las 10 principales amenazas de la humanidad.

El equipo ha publicado todos los hallazgos, agrupados bajo el nombre AMPSphere (esfera de péptidos antimicrobianos), en una plataforma de código abierto para permitir la investigación a partir de sus hallazgos a cualquier entidad interesada en desarrollar nuevos antibióticos. La idea es superar la tendencia de la industria farmacéutica a centrarse más en tratamientos de enfermedades crónicas, de uso prolongado y más rentables.

Llevo toda mi carrera dedicada a los antibióticos, porque es una de las áreas que tiene menos inversión y que mata a más gente en el mundo. Simplemente, mi sueño es intentar ayudar a la humanidad, salvar vidas. Y para mí es lo más importante, más que ganar dinero

César de la Fuente, Universidad de Pensilvania

“Llevo toda mi carrera dedicada a los antibióticos, porque es una de las áreas que tiene menos inversión y que mata a más gente en el mundo. Simplemente, mi sueño es intentar ayudar a la humanidad, salvar vidas. Y para mí es lo más importante, más que ganar dinero”, afirma De la Fuente, quien promueve la creación de una empresa surgida de su laboratorio en la Universidad de Pensilvania para acelerar los desarrollos de nuevos antibióticos.

“Hay una necesidad urgente de nuevos métodos para el descubrimiento de antibióticos. Usar la inteligencia artificial para comprender y aprovechar el poder del microbioma mundial nos lleva a investigaciones innovadoras que mejoran la salud pública”, añade Coelho, cuya colaboración ha sido, en opinión de De la Fuente, extraordinaria.

Luis Pedro Coelho, biotecnólogo de la Universidad de Tecnología de Queensland,

“Estamos orgullosos de esta investigación porque creemos que es el proyecto de descubrimiento de antibióticos más grande que se ha escrito en cuanto a la cantidad de información biológica que hemos explorado y la de moléculas que hemos encontrado nuevas. Es una representación muy completa de toda la increíble diversidad microbiana que existe”, resalta el investigador gallego.

De la Fuente detalla cómo el hallazgo procede de una novedosa forma de aproximarse al problema global y urgente de la resistencia a los antibióticos: “Yo pienso en la biología como una fuente de información en forma de ADN, de nucleótidos, de proteínas o de aminoácidos. Con los ordenadores podemos entrar como con una lupa y explorar toda esa diversidad oculta al ojo humano y codificada de forma tan compleja e ingente”.

Con modelos mucho más humildes, otros investigadores trabajan en la misma dirección y bajo la misma premisa: la lucha contra una amenaza global. Una investigación en The Microbe, ha analizado las comunidades bacterianas y de arqueas (organismos procariotas que tienen apariencia de bacterias) en los baños romanos de la ciudad británica de Bath. “Esta es una investigación muy emocionante. La resistencia a los antimicrobianos es reconocida como una de las amenazas más importantes para la salud mundial y la búsqueda de nuevos productos naturales antimicrobianos se está acelerando. Nuestro estudio ha desvelado, por primera vez, que algunos de los microorganismos presentes en las Termas Romanas son una fuente potencial de nuevos descubrimientos antimicrobianos. Las termas romanas han sido consideradas medicinales durante mucho tiempo y ahora, gracias a los avances de la ciencia moderna, descubrimos que los romanos y otros tenían razón”, comenta Lee Hutt, autor principal del trabajo e investigador de la Universidad de Plymouth.

Otra línea de investigación se dirige no solo a descubrir nuevos antibióticos, sino que estos no impliquen efectos indeseados. El tratamiento con la conocida amoxicilina y clindamicina provoca cambios en la estructura general de las poblaciones bacterianas en el intestino, disminuyendo la abundancia de varios grupos microbianos beneficiosos, según detalla un equipo de investigadores de la Universidad de Illinois Urbana-Champaign en Nature. Los investigadores han probado en ratones un nuevo antibiótico. “La lolamicina”, como se denomina el nuevo compuesto, “no causa ningún cambio drástico en la composición taxonómica en el transcurso del tratamiento de tres días o la recuperación de los siguientes 28 días”, sostienen los investigadores.

[Esta noticia se publicó por error una hora antes de que desembargara el estudio de Cell. Se borró su contenido y se volvió a publicar completa a la hora correcta]

Puedes seguir a MATERIA en Facebook, X e Instagram, o apuntarte aquí para recibir nuestra newsletter semanal.

Seguir leyendo

]]>
Eric Sucar
<![CDATA[La oleada de ciberataques se extiende a medios y famosos en TikTok y también a hospitales]]>https://elpais.com/tecnologia/2024-06-05/la-oleada-de-ciberataques-se-extiende-a-medios-y-famosos-en-tiktok-y-tambien-a-hospitales.htmlhttps://elpais.com/tecnologia/2024-06-05/la-oleada-de-ciberataques-se-extiende-a-medios-y-famosos-en-tiktok-y-tambien-a-hospitales.htmlWed, 05 Jun 2024 09:38:19 +0000La oleada de ciberataques continúa su expansión en todas sus categorías. Un secuestro de sistemas y datos afectó el pasado lunes a los principales hospitales de Londres y, este miércoles, la red social TikTok ha confirmado ataques sufridos la pasada semana por cuentas de medios de comunicación, como CNN, de grandes marcas y otras “de alto perfil”, entre las que se encuentran la de la popular Paris Hilton.

La cadena informativa estadounidense CNN informó a TikTok del ataque, que obligó a suspender la actividad de esta emisora en la red social durante varios días. De forma simultánea se reportaron acciones similares en cuentas de personajes populares y grandes compañías.

TikTok ha confirmado la incidencia: “Nuestro equipo de seguridad está al tanto de un posible exploit [programa que aprovecha un error o una vulnerabilidad de una aplicación o sistema para provocar un comportamiento involuntario o imprevisto] dirigido a varias cuentas de alto perfil. Hemos tomado medidas para detener este ataque y evitar que se produzca en el futuro. Estamos trabajando directamente con los propietarios de las cuentas afectadas para restaurar el acceso, en caso de que fuera necesario”.

TikTok advierte en su página de seguridad de que “los mensajes fraudulentos son un método común que usan los hackers [piratas informáticos] para engañar y estafar a otros para que les proporcionen sus datos personales” y que estos pueden llegar a través de la propia aplicación de la red social, que advierte que nunca contacta de esta forma para reclamar este tipo de información.

Hospitales

Otro gran incidente en ciberseguridad se ha registrado este lunes, cuando un ciberataque ha afectado a los principales hospitales de Londres y obligado a cancelar numerosos servicios de atención médica que incluyen transfusiones y prestaciones en atención primaria, según el servicio sanitario británico (NHS).

El secuestro de sistemas y datos de hospitales muestra la especial virulencia de la oleada de ciberataques, ya que los centros sanitarios suelen ser una línea roja que muchas organizaciones mafiosas son reticentes a traspasar. Sin embargo, en el último año han aumentado y llevado a la Agencia Europea de Ciberseguridad (ENISA) a reclamar un refuerzo de los sistemas de defensa. Proveedores, administración, industria farmacéutica y hospitales europeos han experimentado un aumento de las amenazas e incidentes de entre el 42% y el 53%, según el portal de administración electrónica española.

El primer Security Report Iberia de la compañía Check Point para España y Portugal ha detectado un promedio de 1.133 ciberataques semanales por empresa y un dramático aumento en las amenazas de ransomware (secuestro y extorsión). Los sectores más atacados en la zona han sido salud, educación y comunicaciones. El informe State of CPS Security Report: Healthcare de Claroty también calcula que un 63% de las vulnerabilidades explotadas el pasado año afectaron a redes de empresas sanitarias como hospitales y clínicas.

“Existen innumerables intersecciones entre infraestructuras complejas y cadenas de suministro de softwares [programas] y servicios. Los atacantes se dirigen cada vez más a estos elementos, lo que provoca interrupciones de gran alcance en las funciones sociales clave. Necesitamos formas de garantizar que los servicios críticos, como la atención médica, continúen operando de manera segura y confiable, incluso cuando partes de la infraestructura están bajo ataque o comprometidas”, explica Awais Rashid, jefe de ciberseguridad en la Universidad de Bristol a SMC.

Puedes seguir a EL PAÍS Tecnología en Facebook y X o apuntarte aquí para recibir nuestra newsletter semanal.

Seguir leyendo

]]>
Dimitrios Kambouris
<![CDATA[Los ciberataques alcanzan su máximo histórico: “No hay nadie a salvo”]]>https://elpais.com/tecnologia/2024-06-02/los-ciberataques-alcanzan-su-maximo-historico-no-hay-nadie-a-salvo.htmlhttps://elpais.com/tecnologia/2024-06-02/los-ciberataques-alcanzan-su-maximo-historico-no-hay-nadie-a-salvo.htmlSun, 02 Jun 2024 03:20:00 +0000“Estamos bajo un ataque global. Esto se sale de los patrones. Siento ser catastrofista, pero creo que es así. No es casualidad”. Es la explicación que encuentra Rafael López, de la empresa de ciberseguridad israelí Perception Point, a la sucesión de ciberataques de los últimos 15 días. Cada segundo, billones de datos y miles de sistemas informáticos caen en manos de mafias organizadas para robar cuentas y exigir dinero a cambio de devolver el control sobre las identidades de los clientes y la infraestructura que sostiene la actividad de una entidad. El cibercrimen ha alcanzado su máximo histórico por la mayor disponibilidad de armas tecnológicas, por el amplio campo de batalla generado por la digitalización y, sobre todo, porque es un gran negocio. Sumada toda su actividad, equivale a la tercera economía del mundo,

El pasado jueves, un grupo criminal aseguró haberse hecho con millones de datos de usuarios del gigante de la venta de entradas Ticketmaster. Días antes, la casa de subastas Christie’s y tres grandes empresas españolas sufrían la misma amenaza. “Solo hay dos tipos de empresas, las atacadas y las que no saben que lo han sido”. Este dicho común en ciberseguridad se atribuye a John Thomas Chambers, veterano exjefe de seguridad de la tecnológica Cisco, quien advirtió a principios de año de un incremento de las agresiones informáticas que se ha confirmado en solo seis meses. Y no solo las compañías. Cualquier institución o persona es objetivo de las mafias. “El 94% de la población española entre 16 y 74 años tiene un dispositivo móvil, lo que le convierte en víctima potencial de un ciberataque”, aseguró Gabriel González, fiscal delegado de Criminalidad Informática en el último 5G Forum de Sevilla.

Los últimos ejemplos de esta hiperactividad delictiva con mayor repercusión, por la dimensión de las víctimas, son las posibles brechas de seguridad en Banco Santander, Telefónica, Iberdrola o la DGT. Pero son solo las conocidas porque, hasta que entre en vigor a final de año la directiva europea NIS2, que obliga a tener sistemas de seguridad robustos y comunicar los ataques, la mayoría de las entidades privadas sobrelleva en la intimidad la virulenta epidemia de infecciones en sus sistemas, favorecida por nuevos vectores como la inteligencia artificial o inéditas vulnerabilidades.

Diferentes estudios calculan que el aumento de los ciberataques este año se sitúa entre el 25% y el 30%, un incremento del que no se libra España, donde el Informe de Seguridad Nacional del último ejercicio recoge que el Centro Criptológico Nacional registró en solo nueve meses una cifra récord de 940.776 cibercrímenes, un 21,5% más que el año anterior.

Marc Rivero, jefe de investigación de Kaspersky, coincide en que la actividad actual del cibercrimen no tiene precedentes y lo defiende con los datos de su equipo de respuesta a incidentes, que ha observado un incremento de los ataques, en especial de secuestros y robos de datos seguidos de extorsión (ransomware). Coincide Jakub Kroustek, también director de investigación de programas maliciosos de Gen, el grupo de empresas que comercializa Avast: “Durante este 2024 se ha alcanzado la mayor ratio de riesgo cibernético de la historia, es decir, la probabilidad más alta de que cualquier individuo sea el objetivo de un ciberataque”.

Esta mayor actividad se refleja en el mercado clandestino de herramientas y datos, donde la disponibilidad de armas informáticas crece sin parar. “Las últimas semanas están siendo absolutamente caóticas. Se nota muchísimo el aumento de actividad. Está siendo exponencial”, confirma Rafael López. Lo sabe bien porque está infiltrado donde se mueve este ingente negocio criminal: en la dark web (la parte de internet que no está indexada por los motores de búsqueda convencionales) y en los canales de ciberdelincuencia de Telegram, la plataforma de mensajería que intentó cerrar sin éxito el juez de la Audiencia Nacional Santiago Pedraz el pasado marzo.

“Es como la selva. Hay de todo. Desde activistas rusos, que buscan voluntarios para campañas de propaganda o para ataques de denegación de servicios esenciales, hasta gente que ofrece cursos para ser hacker (pirata informático) o que vende los datos robados o los programas para hacerlo. Pero, como en toda selva, si no vas preparado, las fieras te comen”, explica.

Ingentes beneficios

Los motores que mueven esta industria son tres: espionaje, ideológicos y económicos. El primero es el menos habitual y busca solo acceder a información confidencial de entidades de la competencia o adversarios. El ataque con motivaciones ideológicas (hacktivismo), aunque ha crecido desde la guerra en Ucrania y Gaza, se mantiene estable en lo alto de la tabla de incidencias. Pero la razón del estallido reciente, facilitado por la mayor disponibilidad de herramientas y víctimas, es el dinero. “La principal causa (93%) que impulsa a los ciberatacantes es conseguir un rédito económico”, ratifica Igor Unanue, jefe de tecnología de S21sec (del grupo Thales) en España y Portugal. Los datos justifican esta conclusión. El volumen de negocio del cibercrimen supera los 10,5 billones de euros anuales.

Marc Rivero considera que el panorama responde a las peores previsiones y señala que las alarmas actuales se deben a la repercusión que genera la relevancia de las compañías afectadas: “Cuando tienen [los delincuentes] la suerte de encontrar algún fallo de seguridad en grandes empresas, lo utilizan y acaba impactando”.

Es el caso de Ticketmaster, la mayor plataforma de venta de entradas online para eventos de ocio y conciertos, como los de Taylor Swift en España. El grupo criminal ShinyHunters ha amenazado con vender los datos de 560 millones de usuarios y Australia, donde tiene la sede la compañía, ha abierto una investigación. Lo mismo le ha sucedido a Christie’s.

En España, el primer gigante afectado este mes de mayo ha sido el Banco Santander, que comunicó a la Comisión Nacional del Mercado de Valores un “acceso no autorizado” a un proveedor con información de los clientes de la entidad en España, Chile y Uruguay. La entidad bancaria asegura que no se ha tenido acceso a “información transaccional ni credenciales de acceso o contraseñas de banca por internet”.

Pocos días después, la empresa de seguridad HackManac informó de una supuesta oferta ilegal de datos de 120.000 clientes de Telefónica, pero la compañía investiga “la legitimidad de la información que dice tener este actor en internet [el ciberdelincuente que ha amenazado con difundir los datos]” y niega que, de haberse conseguido el acceso, este incluya “datos sensibles”, como claves y cuentas bancarias.

Al grupo se ha sumado la energética Iberdrola, que comunicó a la Agencia Española de Protección de Datos y a la policía la filtración desde los servidores de un proveedor de nombres completos y documentos de identidad de 850.000 de sus casi 12 millones de clientes. “Los ciberdelincuentes no han logrado acceder a la información más sensible y la brecha se cerró de forma inmediata”, responde un portavoz de la compañía.

El último caso ha sido una supuesta oferta de datos procedentes de la DGT que la Guardia Civil investiga. El hacker afirma vender información de millones de vehículos, con sus matrículas, titulares, DNI y datos del seguro vigente.

El eslabón más débil

Los últimos casos de brechas en empresas españolas tienen un denominador común: los ataques llegan a través de terceros, porque los sistemas internos de las grandes compañías son muy robustos. La inversión en seguridad de las empresas españolas ronda los 1.200 millones de euros (200.000 en el mundo). Pero el 90% de este gasto se corresponde con entidades de gran tamaño, mientras que las pequeñas y medianas empresas realizan inversiones mínimas, a pesar de que todas están digitalizadas en mayor o menor medida (ampliando así el campo de vulnerabilidades) y forman parte del ecosistema económico de las primeras como subcontratistas y suministradoras de bienes y servicios.

Rafael López explica que los atacantes buscan el acceso “en los eslabones más débiles de la cadena, que suelen ser proveedores con sistemas de seguridad insuficientes, cuando los tienen”. En la misma línea, Sergio de los Santos, director del área de Innovación y Labs en Telefónica Tech que también participó en el último 5G Forum, defiende que “las pequeñas y medianas empresas tienen que entender que van a ser atacadas y que la ciberseguridad no es una utopía”.

Pero el atacante no solo busca la parte de la muralla más vulnerable, sino también al vigilante menos diligente. En más de la mitad de los casos (68%) hay un error humano detrás de cada ataque; basta con abrir un simple correo electrónico con un enlace encubierto que activa un programa malicioso en solo 60 segundos.

Mark Rivero precisa: “Cuando a una persona le roban las credenciales de sus cuentas y de las empresas con las que trabaja, esa información se vende a los grupos de ransomware para, directamente, facilitar las campañas de fraude y el acceso a las redes comprometidas”.

Las grandes empresas cuentan con sistemas de defensa robustos, aunque, según De los Santos, además de muros preventivos, “han asumido que van a sufrir ataques exitosos, por lo que ahora la importancia recae en cómo recuperarse”. Pero la diana final de los ladrones de información de esas compañías con millones de clientes es el usuario, víctima del 84% de las estafas por internet. “No hay nadie a salvo, pero lo que más me preocupa”, señala Rafael López, “es el ciudadano de a pie, porque los datos robados son los que sirven para campañas masivas de fraude que suplantan a bancos, la Agencia Tributaria o la policía”.

Raúl Sánchez, economista de 56 años residente en Sevilla, aún recuerda la última aciaga mañana de Navidad cuando, como tiene por costumbre, revisó la aplicación de su banco: “Descubrí que habían comprado con los datos de mi tarjeta 2.500 euros de publicidad en Snapchat, una red social que hasta ese momento desconocía. Supongo que la venderían luego. Llegaron al límite de crédito”. Denunció en comisaría para poder reclamar a la entidad financiera. “El policía se encogió de hombros cuando le pregunté si podían hacer algo”, recuerda.

Pagar al delincuente

La mayoría de las empresas, instituciones y particulares siguen sufriendo los ciberataques más habituales, que generalmente se producen de forma combinada y secuencial. Aunque hay decenas de modalidades específicas, se pueden agrupar en tres categorías: el engaño (phishing) para acceder a credenciales de acceso cuando no se puede acceder por lo que se denomina “fuerza bruta”; denegación de servicio (DDoS, por sus siglas en inglés), para inhabilitar en solo cinco minutos los sistemas de cualquier entidad (59% de los casos); y el secuestro de datos y extorsión (ransomware). Si la empresa no paga, la información se ofrece en la web oscura para que los ciberdelincuentes adquieran una base de datos para lanzar campañas de fraude.

Si se consuma el secuestro, la primera norma es no pagar. “Cada vez que se hace, se financia el crimen”, advierte Rafael López. Sin embargo, muchas empresas prefieren abonar el rescate, generalmente en criptomonedas, para evitar la crisis reputacional y salvaguardar a sus clientes. “Sospechamos que, cuando no se difunden los datos de una entidad atacada, es porque han pagado. Los criminales no hacen amigos”, asegura López.

Cada vez que se paga un rescate, se financia el crimen

Rafael López, de la empresa de ciberseguridad israelí Perception Point

No existen estadísticas fiables sobre cuántas entidades pagan, pero la compañía de seguridad Veeam calcula que un 76% abona las cantidades reclamadas. La delegación andaluza de un bufete nacional de abogados, que se niega a ser identificada, sufrió un secuestro de todo el sistema y pagó por la información confidencial robada. “Nunca se recuperó el sistema, pero los datos no se difundieron”, admite uno de sus responsables.

Aunque las armas tienen el mismo mecanismo, se han sofisticado gracias a la irrupción de la inteligencia artificial (IA), capaz de crear en solo segundos un programa malicioso, recrear un correo exactamente igual al de un remitente habitual y de confianza o incluso suplantar voces e imágenes. Por fortuna, según Juan Miguel Pulpillo, Coordinador del Centro de Ciberseguridad Industrial, “la IA también desempeña un papel esencial en la ciberseguridad al ayudar a identificar, prevenir y responder a las amenazas cibernéticas de manera más rápida y precisa”.

Tampoco ha cambiado mucho el mapa de las ciberamenazas. Según una investigación publicada en Plos One, el Índice Mundial de Ciberdelincuencia se concentra principalmente en un pequeño número de países con China, Rusia, Ucrania, Estados Unidos, Rumanía y Nigeria a la cabeza, aunque la lista completa alcanza a 97 Estados, cada uno con su especialidad. “Por ejemplo, los delitos cibernéticos relacionados con productos o servicios técnicos fueron la categoría principal en China; el robo de datos o identidad, en los EE UU; y los ataques y la extorsión, en Irán”, explica Miranda Bruce, investigadora de la Universidad de Oxford y autora principal. No son individuos aislados, sino organizaciones criminales, en la mayoría de los casos, con apoyo de los Gobiernos o dependientes de ellos, como los grupos de Corea del Norte.

Puedes seguir a EL PAÍS Tecnología en Facebook y X o apuntarte aquí para recibir nuestra newsletter semanal.

Seguir leyendo

]]>
QUINTATINTA
<![CDATA[Nanodiamantes puros con tecnología cuántica para predecir enfermedades con una precisión inédita]]>https://elpais.com/tecnologia/2024-05-29/nanodiamantes-puros-con-tecnologia-cuantica-para-predecir-enfermedades-con-una-precision-inedita.htmlhttps://elpais.com/tecnologia/2024-05-29/nanodiamantes-puros-con-tecnologia-cuantica-para-predecir-enfermedades-con-una-precision-inedita.htmlWed, 29 May 2024 03:20:00 +0000Uno de los mayores quebraderos de cabeza para la aplicación de la física microscópica, el ruido, ha permitido el desarrollo más prometedor de la medicina de precisión y preventiva: los sensores cuánticos. Cualquier interacción altera el estado de una partícula y esta inestabilidad es una de las mayores limitaciones de la computación con esta ciencia, que necesita controlarla o corregirla. Sin embargo, el físico de la Universidad de Murcia Javier Prior, especializado en biología, termodinámica y sensores cuánticos, ha convertido esta desventaja en una enorme oportunidad para abrir un campo inédito a partir de la identificación de cualquier alteración al más mínimo nivel celular en sus primeros pasos. Nanométricos diamantes puros sirven para albergar partículas que reaccionan ante cualquier anomalía en el desarrollo de las mínimas unidades biológicas y permiten identificar la disfunción en la etapa inicial o en un microfluido del cuerpo. Es una microscópica baliza que lanza señales cuando detecta el primer signo fisicoquímico de una incipiente tormenta celular.

Prior encabeza un grupo a cuyos colaboradores conoció tras su paso por las universidades de Oxford, Imperial College y Ulm. Son, principalmente, Fedor Jelezko, pionero de los diamantes NV (nitrógeno vacante) y Alex Retzker, experto en sensores. Esta relación y una patente sobre microfluídica basada en sensores cuánticos (que permite leer ópticamente respuestas en mínimas sustancias líquidas o gaseosas) abrieron la nueva puerta que ha derivado en la creación de Qlab, una iniciativa que aúna investigación con empresa y que está trabajando un posible apoyo del Ministerio para la Transformación Digital. Los desarrollos cuentan con financiación de la Agencia Estatal de Investigación.

Es complejo, pero Prior hace un esfuerzo por simplificar años de investigación: “Tenemos un dispositivo que es muy sensible a una determinada acción exterior. Generamos un sistema cuántico. Cojo un electrón y, mediante pulsos ultrarrápidos, lo pongo en una superposición donde está girando hacia un lado, lo que se conoce como spin [rotación en inglés], aunque no es un giro realmente, y al contrario a la vez. Como cualquier estado cuántico es muy sensible a la acción de cualquier campo eléctrico o magnético u otro parámetro físico, lo usamos como una brújula. Si a esta le acercas un imán, la aguja se mueve y se alinea con el campo magnético. Mi sensor detecta los campos magnéticos más pequeños y funciona a temperatura ambiente”.

El vehículo de este sensor capaz de detectar la más mínima señal es un diamante con la partícula atómica a nueve nanómetros de la superficie —un nanómetro es la milmillonésima parte de un metro (10⁻⁹)—. “Los diamantes los hacemos sintéticos porque los naturales tienen muchas impurezas [que pueden afectar al sistema cuántico] y los queremos muy puros, ya que solo nos interesa que tenga átomos de carbono 12. Lo construimos mediante deposición química de vapor: se genera un plasma que se va depositando capa a capa”. Para insertar la partícula cuántica, esta se acelera y se precipita contra el diamante. “Dependiendo de la velocidad y de cómo la lanzas, se van a meter, digamos, a una cierta distancia”, precisa en un esfuerzo por resumir un proceso complicado.

El siguiente paso es llevar el nanodiamante, que es absolutamente biocompatible, a una célula en una placa de Petri mediante unas pinzas ópticas, dos láseres que atrapan el dispositivo: “De esta forma, se puede introducir en una parte de la célula y detectar si se está generando una proteína relacionada con la inflamación. Es como introducir una cámara que monitoriza en todo momento las moléculas”. Y pone un ejemplo: “Los radicales libres no tienen el mismo número de electrones que de protones y son desencadenantes del envejecimiento o de muchas enfermedades, como los procesos degenerativos, porque roban partículas a las vecinas”.

Su aplicación en un organismo podría ser mediante implantación, inyección o simplemente, en el caso del cerebro, con un casco que lo cubra y mida los campos eléctricos de las neuronas.

Javier Prior, en la Universidad de Murcia.

Qlab, la empresa surgida de estas investigaciones, desarrolla otro concepto de sensor cuántico conocido como Lab-in-chip, minidispositivos con funciones de laboratorio capaz de analizar con los mismos principios cuánticos una muestra de microfuido corporal y que podría llegar a ser doméstico. En este caso, al diamante se le practicaría una especie de canal de 100 nanómetros para canalizar las micromuestras y podría arrojar un preciso resultado similar a un análisis de sangre o una biopsia.

Con la financiación necesaria, sobre la que ya hay conversaciones de inversión pública y privada, Prior está convencido de poder desarrollar prototipos semicomerciales de los sensores cuánticos en cinco años. Además de estas balizas de medicina de precisión y preventiva, la misma tecnología cuántica se puede aplicar para crear un resonador magnético nuclear que emitiría una señal específica al coincidir la frecuencia con la de aquello que se analiza.

El campo cuántico es amplio y Prior cree que España, en colaboración con otras instituciones, tiene la posibilidad de desarrollar un ámbito estratégico que ya es clave y por el que están apostando países del entorno. Los dispositivos y la tecnología ya existen y están comprobadas, falta el próximo paso: la implicación institucional y privada en una tecnología cuyas previsiones de crecimiento superan los dos dígitos.

Otros avances

En esta carrera por el control y uso de los estados cuánticos, en la que España puede pugnar por un buen puesto de salida, hay muchos laboratorios. Un grupo de investigadores liderados por el profesor Nobuhiro Yanai, de la Universidad de Kyushu, ha logrado la coherencia cuántica (el mantenimiento de un estado) durante más de 100 nanosegundos a temperatura ambiente, según un estudio publicado en Science Advances. El hallazgo ha sido posible mediante un cromóforo, una molécula que absorbe la luz y emite color, en un metal-orgánico (MOF).

“El MOF desarrollado es un sistema único que puede acumular cromóforos densamente. Además, los nanoporos dentro del cristal permiten que el cromóforo gire, pero en un ángulo muy restringido”, explica Yanai. Este descubrimiento es relevante también para las tecnologías de sensores. “Esto puede abrir las puertas a la computación cuántica molecular a temperatura ambiente, así como a la detección cuántica de varios compuestos objetivo”, asegura.

En dirección opuesta ha avanzado Kaden Hazzard, profesor de física y astronomía de la Universidad de Rice y coautor de un estudio publicado in Nature Physics. El experimento ha sido capaz de prolongar el comportamiento cuántico casi 30 veces (1,5 segundos) mediante el uso de temperaturas ultrafrías y longitudes de onda láser para generar una “trampa” que retrasa el inicio de la decoherencia.

“Si quieres hacer nuevos materiales, nuevos sensores u otras tecnologías cuánticas, necesitas entender lo que está sucediendo a nivel cuántico, y esta investigación es un paso hacia el logro de nuevos conocimientos”, explica.

Puedes seguir a EL PAÍS Tecnología en Facebook y X o apuntarte aquí para recibir nuestra newsletter semanal.

Seguir leyendo

]]>
ALFONSO DURAN
<![CDATA[Identificado el mecanismo de una de las mutaciones más frecuentes en los tumores]]>https://elpais.com/ciencia/2021-05-14/identificado-el-mecanismo-de-una-de-las-mutaciones-mas-frecuentes-en-los-tumores.htmlhttps://elpais.com/ciencia/2021-05-14/identificado-el-mecanismo-de-una-de-las-mutaciones-mas-frecuentes-en-los-tumores.htmlFri, 14 May 2021 09:07:33 +0000Una explicación simplificada del cáncer es que se trata del desarrollo de células anormales que se dividen, crecen y se diseminan sin control. La división celular es un mecanismo biológico natural, pero cualquier fallo en el proceso de replicación y transcripción del material genético puede hacer que la célula, en vez de morir de forma natural, comience a dividirse sin límite formando las masas, denominadas tumores o neoplasias, que terminan por destruir y sustituir tejidos normales. Una investigación de la Universidad de Sevilla (US) en el Centro Andaluz de Biología Molecular y Medicina Regenerativa (CABIMER), publicada en Nature Genetics, ha identificado el mecanismo de una de las mutaciones (cambios en la secuencia natural del ADN) más frecuentes en los tumores, un hallazgo fundamental para entender los procesos cancerígenos y buscar soluciones.

Si la replicación celular fuera como copiar un libro, el ADN serían las letras, que deben situarse exactamente igual en un nuevo ejemplar para que el mensaje sea correcto y la copia cumpla su función. Algunos genes actúan de supresores tumorales, como el P53, y se encargan de producir proteínas que vigilan y controlan los procesos de transcripción y replicación. Un cambio (mutación) en estos genes puede hacer que no cumplan su función y comience la división celular sin control.

Las alteraciones en el P53, conocido como el “guardián del genoma”, son las más habituales detectadas en los tumores. Pero hay otro grupo cuyo mecanismo de mutación ha sido descubierto por los investigadores españoles y que da origen a la segunda mutación más frecuente en los cánceres.

Este nuevo mecanismo, cuyo papel no estaba claro hasta la investigación recién publicada, comienza en un complejo de proteínas, conocido como cromatina SWI/SNF (SwItch/Sucrose Non Fermentable), que tiene como función remodelar y acomodar la cubierta del ADN (histonas) para permitir la expresión de los genes o la replicación del genoma. En ese proceso de actuar sobre el envoltorio del ADN juega un papel fundamental el Brahma-related gene-1 (BRG1), un componente de la cromatina y modulador crítico para regular la transcripción, reparación y recombinación genética en los procesos celulares.

El remodelador SWI/SNF es como el vigilante de una vía por la que circulan dos trenes en dirección opuesta. Si no regula el tráfico, se produce una catástrofe

Andrés Aguilera, catedrático de genética de la Universidad de Sevilla

Sin estos elementos, los procesos de replicación y transcripción chocan y se genera la inestabilidad que caracteriza a los tumores. El catedrático de genética de la Universidad de Sevilla Andrés Aguilera, director del estudio, cuyo autor principal es Aleix Bayona-Feliu, lo simplifica para explicarlo. “El remodelador SWI/SNF es como el vigilante de una vía por la que circulan dos trenes en dirección opuesta. Si no regula el tráfico, se produce una catástrofe”. De esta forma, cualquier alteración en el complejo SWI/SNF, vigilante de ese tráfico, genera la inestabilidad genética, que está detrás de la mayoría de tumores.

“El complejo SWI/SNF es necesario para que las células puedan resolver los conflictos que se dan en los cromosomas cuando las maquinarias de transcripción y replicación colisionan en un mismo sitio obstaculizándose mutuamente”, explica Aguilera.

Una mutación inicial se produce accidentalmente y, si esta afecta al policía que regula el tráfico en el ADN, en este caso SWI/SNF, o la división celular, la célula pierde el control sobre la integridad del genoma y comienza la cascada de alteraciones genéticas

Andrés Aguilera, catedrático de genética de la Universidad de Sevilla

El resultado del fallo causado por las mutaciones en el complejo SWI/SNF es la generación y acumulación de moléculas híbridas de ADN y ARN que resultan tóxicas y que los investigadores creen que están presentes de forma frecuente en los tumores. Según el estudio, “el impacto de las alteraciones de SWI/SNF podría explicar la prevalencia de sus mutaciones en las neoplasias malignas humanas y por qué los factores de este complejo están mutados más ampliamente que cualquier otro supresor tumoral u oncogén”.

Aguilera explica: “Una mutación inicial se produce accidentalmente y, si esta afecta al policía que regula el tráfico en el ADN, en este caso SWI/SNF, o la división celular, la célula pierde el control sobre la integridad del genoma y comienza la cascada de alteraciones genéticas que pueden desembocar en cáncer. Identificar esta mutación en sus primeras fases permitiría establecer un biomarcador en estados muy iniciales del cáncer y, en un futuro, ser usadas en prevención y terapias personalizadas”.

Andrés Aguilera, en el laboratorio.

Hao Zhu, investigador del Children’s Medical Center Research Institute del hospital UT Southwestern (Texas), y autor de otro estudio sobre la cromatina publicado en Nature cancer, coincide en que los complejos de cromatina SWI/SNF desempeñan un papel crucial en el desarrollo de tejidos normales y, cuando se alteran, pueden conducir al desarrollo del cáncer: “Estos complejos son comúnmente alterados por mutaciones en los genes que los codifican, pero se conoce poco cómo esto conduce al tumor. Si bien está muy claro que los componentes SWI/SNF son defectuosos en casi todos los tipos de cáncer, todavía hay confusión sobre cómo las mutaciones en los componentes conducen a enfermedades”.

Para Zachary Mandell, autor de un estudio publicado en eLife sobre el ciclo de transcripción genética, “este proceso está muy coordinado con el fin de asegurar que los genes correctos se expresen en los momentos y niveles adecuados para que la célula funcione correctamente”. “Estamos interesados en entender los mecanismos que permiten a la célula detener la transcripción en lugares precisos a lo largo del genoma”, afirma.

Puedes seguir a MATERIA en Facebook, Twitter e Instagram, o apuntarte aquí para recibir nuestra newsletter semanal.

Seguir leyendo

]]>
U S
<![CDATA[El premio Fronteras del Conocimiento galardona a los padres de las vacunas de ARN mensajero, a quienes nadie creyó en sus inicios]]>https://elpais.com/ciencia/2022-01-26/el-premio-fronteras-del-conocimiento-galardona-a-los-padres-de-las-vacunas-de-arn-mensajero-a-quienes-nadie-creyo-en-sus-inicios.htmlhttps://elpais.com/ciencia/2022-01-26/el-premio-fronteras-del-conocimiento-galardona-a-los-padres-de-las-vacunas-de-arn-mensajero-a-quienes-nadie-creyo-en-sus-inicios.htmlWed, 26 Jan 2022 12:09:00 +0000Las investigaciones sobre ARN mensajero (ARNm), que han permitido el desarrollo de las vacunas contra la covid, han sido reconocidas este miércoles por la Fundación BBVA Fronteras del Conocimiento al otorgar su máximo galardón anual en Biología y Biomedicina (dotado con 400.000 euros) a Katalin Karikó, Robert Langer y Drew Weissman. Los tres científicos, según el jurado, han sido premiados “por sus contribuciones a las terapias de ARN mensajero y por la tecnología de transferencia que permite a nuestras propias células producir proteínas para la prevención y el tratamiento de enfermedades”. La húngara Karikó, cuyas primeras investigaciones fueron rechazadas hasta perder el puesto en la universidad, y el estadounidense Weissman, que sufrió problemas similares, fueron distinguidos el pasado año con los premios Princesa de Asturias. Langer, también de EE UU e investigador en el Instituto de Tecnología de Massachusetts (MIT), ha recordado que sus trabajos fueron desestimados hasta nueve veces antes de ser tenidos en cuenta.

Los trabajos de la bioquímica Karikó, hija de un carnicero húngaro; Weissman, el inmunólogo con quien colabora desde hace 20 años; y del ingeniero químico Langer han permitido la creación de las vacunas de Moderna y Pfizer-BioNTech, basadas en ARN mensajero (instrucciones para la generación de una proteína que desencadena la respuesta inmunitaria). Tras medio siglo de lucha en este campo, despreciado en sus inicios, sus investigaciones han sido fundamentales para la creación de las vacunas en un tiempo 10 veces inferior al habitual para este tipo de fármacos.

Langer, especializado en sistemas de administración de fármacos e ingeniería de tejidos, forma parte de la directiva de Moderna. Este catedrático del MIT fue el primero en señalar el camino de las investigaciones cuando, en los años setenta, demostró que era posible encapsular moléculas de ácidos nucleicos en nanopartículas y transferirlas al interior del cuerpo. Según el jurado, “abrió así la puerta a empaquetar las macromoléculas terapéuticas, incluido el ARNm, de forma que puedan ser transferidas a las células y que la propia maquinaria de traducción celular sintetice la proteína antígeno”.

Karikó, que ahora forma parte de Pfizer, estudió las posibilidades de la modificación de la molécula genética llamada ARN mensajero para instruir a las células humanas a producir proteínas personalizadas. Su idea inicial era desarrollar terapias para las enfermedades cardíacas, pero el coronavirus dio un vuelco a los objetivos para centrarse en la solución de la pandemia.

El inmunólogo estadounidense Drew Weissman, quien forma parte del equipo de Karikó junto a Norbert Pardi, de la Universidad de Filadelfia, fue responsable de la creación del envoltorio adecuado para que el ARN mensajero llegue a las células del músculo del brazo y a las del sistema inmune.

Karikó y Weissman, ambos catedráticos en la Universidad de Pensilvania (EEUU), desarrollaron métodos de modificación del ARNm para evitar su destrucción por parte del sistema inmunitario humano. En los primeros trabajos detectaron que el ARN administrado a ratones de laboratorio, a veces, provocaba una inflamación dañina.

Según Óscar Marín, director del Centro de Trastornos del Neurodesarrollo en el King’s College London (Reino Unido) y secretario del jurado, “las aportaciones de todos fueron clave”. Marín explica que “Karikó y Weissman descubrieron cómo modificar las moléculas de ARNm para hacerlas susceptibles de ser utilizadas como agente terapéutico y Langer ideó el vehículo seguro, la tecnología de encapsulación que permite introducir el ARNm dentro del cuerpo. Los dos avances son imprescindibles”.

El jurado les ha reconocido sus avances en una técnica que va más allá del acelerado desarrollo de las inyecciones que previenen la gravedad de la covid: “Las vacunas que están conteniendo la pandemia son solo el principio de una tecnología llamada a extenderse a otras áreas terapéuticas, como las enfermedades autoinmunes, el cáncer, los trastornos neurodegenerativos, las deficiencias enzimáticas y otras infecciones víricas”.

Y añade Óscar Marín: “Este premio reconoce a los creadores de las dos tecnologías que, unidas, no solo han hecho posible las vacunas contra la covid, sino que abren todo un abanico de posibilidades terapéuticas en áreas muy diversas para el futuro. Las vacunas han sido el primer ejemplo del potencial de la unión de estas dos tecnologías, pero ya se está investigando y hay ensayos clínicos sobre su uso contra otras enfermedades”.

Un complicado camino

El camino no ha sido fácil. Katalin Karikó, nacida en la localidad húngara de Szeged hace 67 años, sufrió el rechazo inicial en sus investigaciones y se quedó sin fondos públicos en 1995 (10 años después de haber emigrado a EE UU), por lo que perdió el puesto de titular en la Universidad. No obstante, continuó en su empeño con el cardiólogo Elliot Barnathan y, luego, con el neurocirujano David Langer.

Tras conocer el fallo del jurado, según informa la fundación del BBVA, Katalin Karikó ha explicado: “Durante 40 años, no solo no recibí ningún premio, sino que no recibí ningún apoyo económico para mi investigación, así que este reconocimiento es un gran honor. Quiero aprovechar que estoy bajo los focos de los medios para animar a los jóvenes a dedicarse a la ciencia, porque es apasionante”.

Weissman, nacido en Lexington (Massachusetts) hace 63 años, también ha recordado las dificultades iniciales en unos hallazgos que han terminado salvando millones de vidas: “Nuestra hipótesis central cuando empezamos este trabajo fue que el ARN sería un sistema mejor para transferir proteínas al organismo, porque convertiría al propio cuerpo receptor en la fábrica que produce la terapia. El problema que nos encontramos es que el ARN era enormemente inflamatorio, y el animal al que se lo inyectábamos se ponía enfermo, así que Katalin y yo estuvimos muchos años intentando averiguar la causa de este problema, y fue así como conseguimos nuestro hallazgo principal: un método para evitar la reacción inflamatoria del ARN. Esto además tuvo el efecto de incrementar la cantidad de proteína que se producía, lo cual fue una gran ventaja adicional”.

Langer, el más veterano de los tres investigadores (nacido en Albany, Nueva York, hace 74 años) y también reconocido con el premio Príncipe de Asturias en 2008, se ha enfrentado durante décadas al mismo escepticismo sobre sus investigaciones: “Antes de que en 1974 lograra crear micro y nanopartículas para encapsular grandes moléculas, la gente no creía que fuera posible. Incluso después de publicado el resultado, mucha gente me dijo que estaba mal, no lo creían. Los primeros nueve proyectos de investigación que solicité fueron rechazados y no pude conseguir un trabajo en un departamento de ingeniería química, que es mi disciplina”.

El jurado ha estado presidido por Angelika Schnieke, catedrática de Biotecnología de la Universidad Técnica de Múnich (Alemania), y ha contado como secretario con Óscar Marín, catedrático de Neurociencias y director del Centro de Trastornos del Neurodesarrollo en King’s College London (Reino Unido). Los vocales han sido Dario Alessi, director de la Unidad de Fosforilación y Ubiquitinación de Proteínas-MRC en la Universidad de Dundee (Reino Unido); Lélia Delamarre, científica principal en el Departamento de Inmunología del Cáncer de Genentech (Estados Unidos); Robin Lovell-Badge, jefe sénior de grupo y director del Laboratorio de Biología de las Células Madre y Genética del Desarrollo del Instituto Francis Crick (Reino Unido); Ursula Ravens, catedrática sénior del Instituto de Medicina Cardiovascular Experimental de la Universidad de Friburgo (Alemania); Ali Shilatifard, titular de la Cátedra Robert Francis Furchgott de Bioquímica y Pediatría de la Universidad Northwestern (Estados Unidos); y Bruce Whitelaw, catedrático de Biotecnología Animal y director interino del Instituto Roslin en la Universidad de Edimburgo (Reino Unido)

Puedes seguir a MATERIA en Facebook, Twitter e Instagram, o apuntarte aquí para recibir nuestra newsletter semanal.

Seguir leyendo

]]>
FUNDACIÓN BBVA
<![CDATA[Carmen, la niña que tiene la llave para el tratamiento de enfermedades de origen genético]]>https://elpais.com/salud-y-bienestar/2024-02-26/carmen-la-nina-que-tiene-la-llave-para-el-tratamiento-de-enfermedades-de-origen-genetico.htmlhttps://elpais.com/salud-y-bienestar/2024-02-26/carmen-la-nina-que-tiene-la-llave-para-el-tratamiento-de-enfermedades-de-origen-genetico.htmlMon, 26 Feb 2024 04:20:00 +0000Carmen tenía solo tres meses cuando, el día de Reyes de 2021, ingresó en el hospital con convulsiones, cabeceos, respiración agitada y parpadeos. El pronóstico fue atroz: “Le quedan seis meses de vida”. Javier Silva, su padre, recuerda el vacío de la habitación, el vértigo, el dolor que le impedía pensar y moverse. Pero Carmen se ha aferrado a la vida y ha superado los tres años. Su afán ha llevado a sus padres a no dejar de luchar, a renegar del augurio y buscar en todo el mundo una mínima esperanza. Y la han encontrado en Ángel Carracedo, director de la Fundación Pública Galega de Medicina Xenómica, y en el Centro de Investigación en Medicina Molecular y Enfermedades Crónicas (CIMUS). Han averiguado que el origen del mal que mantiene a Carmen con un 94% de discapacidad es una extraña mutación y han abierto dos posibilidades de tratamiento: la edición genética y el ARN mensajero. De estas alternativas dependen Carmen y millones de personas cuyas vidas se han truncado por un error en la información sobre la que se construye la vida.

La pequeña vive en Benalmádena (Málaga) con sus padres, Javier, de 51 años, y Laura Bergillos, de 38. Desde el primer diagnóstico, encefalopatía epiléptica y del desarrollo con convulsiones focales migratorias malignas, conocida como “epilepsia maligna del lactante”, se han volcado en ella. “Montamos el hospital en casa y aprendí a ser la enfermera de mi hija”, recuerda Laura, recién llegada de una sesión de terapia de estimulación que ella replica a diario. Los abuelos maternos de la pequeña forman parte del equipo de atención permanente.

Carmen no puede controlar sus músculos y consigue a duras penas mantener la cabeza erguida unos segundos. Sus brazos y piernas son los de sus padres y abuelos y un bipedestador, un dispositivo parecido a una trona que le permite permanecer en vertical. Come a través de un botón gástrico por disfagia (dificultad o imposibilidad absoluta de tragar) y tampoco puede hablar. Pero esboza sonrisas que inundan la casa, un hogar lleno de luz y color que rezuma lo que, según Javier, es el principal tratamiento: “cariño”.

La familia de Carmen, en el espacio habilitado para la pequeña en su casa de Benalmádena.

Con esa medicina, dos antiepilépticos diarios y una novedosa dieta cetogénica (alta en grasa, baja en carbohidratos y moderada en proteínas) complementaria y temporal por sus efectos secundarios a largo plazo, las crisis de Carmen se han reducido a una al día (“llegó a sufrir 50 cada 24 horas”, recuerda Laura) y muestra tímidos avances funcionales. Pero la solución es más compleja, atacar la causa original, el error en la codificación genética del GABRB3, que impidió, desde la fase embrionaria, el desarrollo normal.

Carracedo, es uno de los genetistas más influyentes del mundo, catedrático de la Universidad de Santiago de Compostela (le apasiona la docencia) y codirector del Centro de Investigación Biomédica en Red de Enfermedades Raras (Ciberer). Cuando conoció la historia de Carmen no dudó en volcarse en el caso. “Es una familia espectacular en todos los sentidos: luchadores y valientes que le dedican la vida a la niña”, resalta.

“La mutación en el gen GABRB3 de Carmen hace que no sea funcional y genera una serie de problemas: no solamente la epilepsia, sino también de hipotonía [debilidad muscular], neurosis y neurodesarrollo”, explica Carracedo. Solo unos 20.000 genes codifican proteínas, un 1% del total del genoma humano. Muchos son genes de sinapsis, de conexiones de neuronas, y este es uno de ellos.

“La mutación de Carmen es singular, pero hay otras personas con mutaciones en este gen. Es una enfermedad rara, ultra rara, si se analiza solo la frecuencia en la población, pero todas juntas suponen el 8% del total de las enfermedades. No es baladí. Hay muchísima gente que tiene problemas absolutamente similares con otros genes”, añade Carracedo.

Esta es una de las claves de esta carrera contra reloj emprendida por todos los que rodean a la pequeña. En España, según la Federación Española de Enfermedades Raras (FEDER), tres millones de personas las padecen (400 millones en el mundo) y el diagnóstico se retrasa entre cuatro y 10 años. Juan Carrión, presidente de FEDER, calcula que “más del 70% tiene origen genético y dos de cada tres aparecen en la infancia”. De ahí que la puerta que se ha abierto para Carmen en cuanto al protocolo de diagnóstico y posible tratamiento lo sea también para miles de personas.

Pero la estrategia es compleja. De forma muy básica, una terapia genética consiste en identificar el gen y la mutación causante del problema, eliminar esa parte defectuosa de la cadena y sustituirla por una pieza correcta para que vuelva a funcionar gracias a la técnica conocida como CRISPR, desarrollada por Emmanuelle Charpentier y Jennifer Doudna a partir de las investigaciones del microbiólogo español Francis Mojica y distinguida con el Nobel en 2020. En el caso de Carmen, es mucho más complicado.

El equipo de la investigadora de la Universidad de Santiago de Compostela (USC) Catarina Allegue en el Centro de Investigación en Medicina Molecular y Enfermedades Crónicas analizó el exoma (parte del genoma formado por los exones, las partes codificantes de los genes) completo para llegar al GABRB3, cuya mutación ya estaba descrita como patogénica.

Ante la imposibilidad de llegar al punto preciso del cerebro de Carmen, se recurre a células madre tisulares o pluripotentes de la sangre, aquellas con capacidad de formar todas las células del cuerpo. Estas muestran un mapa de las neuronas de la pequeña y, comparadas con modelos de control, señalan la mutación específica.

Las mismas células permiten reconstruir un organoide, un tejido similar al del cerebro de Carmen. “Esto nos da una información mucho más global porque no tenemos las neuronas por separado, sino que tenemos todos los grupos que interactúan entre ellos”, explica Allegue.

Este complejo modelo ha sido fundamental porque ha aportado una clave para una de las estrategias del tratamiento. “Nos encontramos que, en el caso de Carmen, el gen GABRB3 se expresa muy poquito, tanto en el organoide como en el órgano de control [el modelo de cómo debería ser], desde los primeros estadios del desarrollo. Después de 15, 30 o 45 días, se expresa muy poco o prácticamente nada. Deducimos que es un gen que actúa pronto en el desarrollo embrionario, pero luego ya no se necesita”.

Javier Silva y Carmen, en su casa de Benalmádena.

De esta forma, la hipótesis de investigación es que el daño en Carmen se produjo en una etapa inicial y que, dada la casi nula expresión del gen tras esas fases primarias de desarrollo, modificar el GABRB3 podría ser inútil. “Aunque nosotros mandemos un CRISPR para tratar de reparar esa mutación, si ese gen ya no se está expresando, si ya no está dando lugar a proteínas porque ya no le hace falta, no vamos a revertir nada”, resume la investigadora.

El hallazgo obliga a repensar la estrategia. La diana no es solo el gen original sino aquellos sobre los que debería haber influido en las primeras fases embrionarias. “Los genes interaccionan entre ellos en rutas y en ellas podemos identificar otro gen sobre el que sí que podemos actuar y que pueda ser una potencial diana terapéutica”, detalla Allegue. Para averiguar los resortes que hay que modificar, y a partir del organoide cerebral, han comenzado ya un estudio del proteoma de Carmen, el conjunto completo de proteínas que generan los genes codificantes para sobreexpresar aquellos afectados por la disfunción original del GABRB3.

Otra de las complejidades de esta inexplorada aventura científica y vital es cómo llevar las modificaciones genéticas al sitio exacto del cerebro. En este sentido, están ensayando en el organoide con nanopartículas lipídicas desarrolladas por una empresa surgida de la USC y con adenoasociados generados por un grupo de Navarra. Este último vehículo es un virus específico para el tejido diana (cerebral en el caso de Carmen) que actúa de mensajero para llevar la pieza reparada y las herramientas para sustituir la dañada. De cada uno de los sistemas tienen ya sendos candidatos con resultados prometedores.

De forma paralela, el equipo gallego investiga la posibilidad de un tratamiento a partir de ARN mensajero, el que permitió el desarrollo de la vacuna contra la covid. El ARN, a partir de la información genética del ADN, genera las proteínas que desempeñan funciones críticas en el cuerpo. El objetivo es diseñar un ácido ribonucleico con las instrucciones precisas para que las células de Carmen fabriquen las proteínas que precisa.

En esta compleja cruzada, el tiempo corre en contra y los recursos son escasos. Las terapias genéticas y las de ARN son hoy las únicas salidas para Carmen y para otras enfermedades similares. Su tratamiento puede establecer, por primera vez en el mundo, una guía con la que afrontar patologías de origen similar. No hay alternativa ni tiempo que perder. Se necesitan medios, financiación y casos que sirvan de espejo para la patología de Carmen y aporten datos para completar las investigaciones.

Laura ha jugado un papel fundamental en este sentido. Ella ha contactado con medio mundo en busca de casos similares y no para de investigar por su cuenta cualquier avance en este campo. Ha establecido una red social de padres con problemas similares y se ha involucrado con Cure Gaba, una ONG creada en Estados Unidos para promover la investigación y el estudio de enfermedades y tratamientos eficaces de los trastornos genéticos que afectan al Gaba, término general del neurotransmisor afectado por las mutaciones.

De la actividad de esta entidad ha surgido la colaboración con un grupo danés que ya experimenta con ratones. Sus resultados son determinantes para acelerar las pruebas y que se apruebe la terapia de Carmen, que no estará lista hasta dentro de, al menos, seis meses.

Pero el objetivo es firme. No hay descanso en todas las partes implicadas, pese a que nadie puede garantizar los resultados. Será la primera vez que se aplique en un caso como el de Carmen, pero los resultados que se obtengan servirán no solo para ella, sino para todos aquellos que arrastran las dolencias de un error en la codificación genética. “Me conformo con que me pueda abrazar”, asegura Javier.

Puedes seguir a MATERIA en Facebook, X e Instagram, o apuntarte aquí para recibir nuestra newsletter semanal.

Seguir leyendo

]]>
Garcia-Santos
<![CDATA[Dos investigaciones dotan de visión más ‘humana’ a coches sin conductor]]>https://elpais.com/tecnologia/2024-05-29/dos-investigaciones-dotan-de-vision-humana-a-coches-sin-conductor.htmlhttps://elpais.com/tecnologia/2024-05-29/dos-investigaciones-dotan-de-vision-humana-a-coches-sin-conductor.htmlWed, 29 May 2024 15:00:50 +0000Los vehículos de conducción autónoma dependen de un sentido tan crucial para el ser humano como la visión. No se trata solo de que la máquina sea capaz de ver, que ya lo hace, sino de mirar, analizar, discriminar y proceder en milisegundos. El reto es alcanzar esta característica de las personas en el tiempo justo para tomar la decisión necesaria. Para una máquina, por ejemplo, ver un árbol junto a la vía es fácil. Lo difícil es saber que no es un objeto que se va a mover ni a interponer en el camino, y lo contrario si se trata de un peatón. La revista científica Nature publica este miércoles dos avances en este sentido: un procesador para responder rápidamente a un evento con la mínima información y un nuevo sistema (algoritmo) para mejorar la precisión de la visión mecánica con menor latencia (tiempo de respuesta).

Estas investigaciones, que son fundamentales para el desarrollo de vehículos de conducción autónoma o la robótica, ya cuentan con desarrollos avanzados en el Instituto de Microelectrónica (Imse) en la capital andaluza, del Consejo Superior de Investigaciones Científicas (CSIC) y la Universidad de Sevilla. Multinacionales como Samsung y Sony ya usan las patentes que comercializa la empresa Prophesee.

Los dos trabajos que publica Nature son innovaciones sobre estos sistemas basados en la foveación, el mecanismo humano que permite maximizar la resolución en la zona donde se enfoca la vista, mientras que la baja en las áreas de visión periférica no relevante. De esta forma, se reduce la cantidad de información, pero se mantiene la capacidad de reconocimiento visual de los datos imprescindibles para la toma de decisiones en milisegundos.

La clave es la interpretación precisa de la escena y una rápida detección de movimiento para permitir reacciones inmediatas. Las cámaras convencionales pueden captar la imagen de un encuadre y la reproducen a altísima resolución, pero toda esa información tiene que ser procesada y discriminada, lo que supone un tiempo y un gasto de recursos incompatibles con las decisiones instantáneas que exige la conducción autónoma o la robótica avanzada.

Uno de los avances lo firman Daniel Gehrig, investigador de la Universidad de Pensilvania (EE UU), y Davide Scaramuzza, profesor de robótica en la Universidad de Zúrich (Suiza). Ambos han abordado la dificultad de la toma de decisiones con imágenes de alta resolución a color. Estas precisan un gran ancho de banda para ser procesadas con la fluidez necesaria y reducir esta alta capacidad a costa de mayor latencia, de más tiempo para responder. La alternativa es usar una cámara de eventos, las que procesan flujos continuos de impulsos, pero sacrificando precisión.

La imagen muestra tanto la información de la cámara a color como los eventos (puntos azules y rojos) de la de eventos; Los cuadros delimitadores muestran la detección de peatones por parte del  algoritmo.

Para hacer frente a estas limitaciones, los autores han desarrollado un sistema híbrido que logra la detección eficaz de objetos con la mínima latencia. El algoritmo combina la información de dos cámaras: una que reduce la velocidad de los fotogramas en color para reducir el ancho de banda necesario y otra de eventos que compensa esa pérdida de latencia, garantizando que los objetos que se mueven rápidamente, como peatones y automóviles, puedan ser detectados. “Los resultados allanan el camino hacia la detección eficiente y precisa de objetos, especialmente en escenarios extremos”, afirman los investigadores.

“Es un gran avance. Los sistemas actuales de asistencia al conductor, como los de MobileEye —que están integrados en más de 140 millones de automóviles en todo el mundo— funcionan con cámaras estándar que toman 30 fotogramas por segundo, es decir, una imagen cada 33 milisegundos. Además, requieren un mínimo de tres fotogramas para detectar de forma fiable a un peatón o a un coche. Esto eleva el tiempo total para iniciar la maniobra de frenado a 100 milisegundos. Nuestro sistema permite reducir este tiempo por debajo de un milisegundo sin necesidad de utilizar una cámara de alta velocidad, lo que supondría un enorme coste computacional”, explica Scaramuzza.

Los sistemas actuales elevan el tiempo total para iniciar la maniobra de frenado a 100 milisegundos. Nuestro algoritmo permite reducir este tiempo por debajo de un milisegundo sin necesidad de utilizar una cámara de alta velocidad

Davide Scaramuzza, profesor de robótica en la Universidad de Zúrich (Suiza)

La tecnología ha sido “transferida a una empresa de primer nivel”, según explica el investigador. “Si se aprobara, por lo general, pueden pasar muchos años desde una prueba de concepto hasta las de impacto y la implementación final”, añade.

Por su parte, Luping Shi, director del Centro de Investigación de Computación Inspirada en el Cerebro (CBICR por sus siglas en inglés) de la Universidad de Tsinghua (China), ha desarrollado con su equipo el chip (procesador) Tianmouc. Inspirado en la forma en que funciona el sistema visual humano, combina percepciones rápidas e imprecisas, como las de la visión periférica humana, con otras de mayor resolución y más lentas para procesarlas.

De esta forma, el chip trabaja también como una cámara de eventos, que en vez de fotogramas completos procesa flujos continuos de impulsos eléctricos (eventos o spikes) registrados por cada fotosensor cuando detecta un cambio suficiente de luz. “Tianmouc tiene una matriz de píxeles híbridos: unos de baja precisión, pero de rápida detección, basados en eventos para permitir respuestas rápidas a los cambios sin necesidad de demasiados detalles y otros de procesamiento lento para producir una visualización precisa de la escena”, explica el investigador. El chip se ha probado en escenarios como un túnel oscuro iluminado repentinamente por una luz deslumbrante o en una carretera por la que cruza un peatón.

Bernabé Linares, profesor de investigación del Imse y responsable de la cámara de eventos comercial de mayor resolución, resalta que Scaramuzza utiliza drones para recoger imágenes de forma convencional y con cámaras de evento. “El avance es el algoritmo utilizado para el reconocimiento de los objetos y el resultado es interesante”, resalta.

El Imse trabaja principalmente con los procesadores, y señala que desarrollos algorítmicos como los de la Universidad de Zúrich son fundamentales como complemento de los chips y para aplicaciones robóticas. Al ser tecnologías muy compactas, precisan de sistemas de cálculos ligeros y que consuman poca energía. “Para los drones es un desarrollo importante. Les viene muy bien este tipo de cámaras de evento”, resalta.

El trabajo de Luping Shi es más cercano a los desarrollos del Grupo de Sistemas Neuromórficos del Imse. En este caso se trata de un procesador híbrido. “Los píxeles se van alternando y va calculando diferencias espaciales. Almacena la luz de una imagen y la siguiente y calcula el cambio. Si no hay modificación, la diferencia es cero. Aporta datos con muy poca frecuencia a partir de un sensor bastante sofisticado”, explica Linares.

Aunque los usos destacados por Nature se orientan a la conducción autónoma, los avances en visión tienen gran relevancia en robótica, que también precisa de capacidad de discriminar información para tomar decisiones a gran velocidad. Es el caso de los procesos de automatización industrial. “Pero a los fabricantes de automóvil les interesa mucho porque buscan todo tipo de desarrollos, ya que así es más seguro y pueden sacar el mejor partido a cada tecnología”, explica Linares, quien resalta que Renault es uno de los inversores de Prophesee.

Puedes seguir a EL PAÍS Tecnología en Facebook y X o apuntarte aquí para recibir nuestra newsletter semanal.

Seguir leyendo

]]>
Grupo de Robótica y Percepción, Universidad de Zúrich, Suiza
<![CDATA[La nueva inteligencia artificial cava la tumba de los buscadores y asistentes tradicionales]]>https://elpais.com/tecnologia/2024-05-19/la-nueva-inteligencia-artificial-cava-la-tumba-de-los-buscadores-y-asistentes-tradicionales.htmlhttps://elpais.com/tecnologia/2024-05-19/la-nueva-inteligencia-artificial-cava-la-tumba-de-los-buscadores-y-asistentes-tradicionales.htmlSun, 19 May 2024 03:25:00 +0000Los últimos avances de la inteligencia artificial (IA) presentados esta semana no son nimios. ¿Hacia dónde va? Demis Hassabis, director de Google DeepMind, la división de investigación de la compañía, lo tiene claro: “Hacia la inteligencia artificial general, la que iguala o supera a la humana”. En la última década hemos contado con dispositivos, como los asistentes Siri, Alexa, Hey Google o Bixby, con capacidades limitadas para responder y ejecutar acciones en electrodomésticos vinculados. Por otro lado, desde finales del pasado siglo, los buscadores han ayudado a encontrar respuestas y ofertas a demandas de los usuarios. Ambos tienen los días contados. Los avances de la IA han comenzado a cavar las tumbas para ambos servicios con el fin de unificarlos en una única plataforma capaz de dialogar como un humano, analizar documentos (de texto, imágenes o vídeos) en distintos dominios, ofrecer respuestas y soluciones complejas y ejecutarlas en nombre del usuario. El buscador y el asistente van a convertirse en una sola herramienta, en un agente, “en un colega supercompetente” —según Sam Altman, máximo responsable de OpenAI— que estará presente en todas las acciones de nuestras vidas.

Los nuevos desarrollos suponen un paso crucial en la inteligencia artificial. Hasta ahora contábamos con herramientas de IA, como los asistentes de voz (Siri o Alexa), que ya entendían el lenguaje natural, o con aplicaciones para convertir una petición de texto en imágenes o vídeos (Sora) o con chats (robots conversacionales) que creaban texto o resumían una reunión o varios documentos (ChatGPT). Las evoluciones lanzadas esta semana tanto por Google como por Open AI son mucho más. Un documento de DeepMind y una decena de universidades y entidades los define: “Son agentes artificiales que utilizan el lenguaje natural y cuya función es planificar y ejecutar secuencias de acciones en nombre de un usuario, en uno o más dominios [en la web, en documentos propios o en interrelación con otros humanos y máquinas], de acuerdo con las expectativas de la persona”.

La clave está, de acuerdo con esta investigación, en la utilización del lenguaje natural, que facilita la interacción con la máquina, en su autonomía para elaborar planes y llevarlos a cabo “en nombre del usuario”, en su transversalidad en cuanto a las fuentes que puede utilizar y en su capacidad de contextualizar la situación del demandante para ajustarse a sus expectativas. Ya no es una simple herramienta, es un complejo robot que sabe con quién habla y qué resultados debe arrojar. “Tendrán un profundo impacto en nuestras vidas individuales y colectivas”, advierte el documento.

Al margen de los innumerables problemas éticos, que este mismo trabajo identifica, la transición que ahora comienza tiene una consecuencia tecnológica próxima: las herramientas de IA que hemos venido utilizando quedan obsoletas de forma singular y pasan a integrarse en el complejo sistema de los agentes. La evolución de la IA ha comenzado a cavar las fosas del buscador y de los asistentes tal y como los hemos conocido hasta ahora.

El buscador convencional agoniza

Larry Page y Sergey Brin fundaron Google en 1998 tras conocerse en la Universidad de Stanford y publicar La anatomía de un motor de búsqueda web hipertextual a gran escala. Con esa investigación desarrollaron un buscador que en solo un año pasó a registrar 3,5 millones de consultas al día y hoy se ha convertido en el más utilizado del mundo, con más de 3.500 millones de demandas de información diarias.

Pero en esta época de eras efímeras, la del buscador de Google tal y como lo conocemos comienza su decadencia. El propio Sergey Brin asistió el pasado martes a este proceso en la sede del gigante en Mountain View (California).

“Durante los últimos 25 años, hemos invertido mucho en el buscador. Pero necesitamos pensar en cómo podemos satisfacer las nuevas necesidades de los usuarios y realmente creo que es la búsqueda en Gemini [nombre de la IA y del chat inteligente de la compañía, competidor de ChatGPT de Open AI]”, afirma Liz Reid, directora de Google Search para dar paso a la nueva era.

Durante los últimos 25 años, hemos invertido mucho en el buscador, que ha sido una herramienta increíblemente poderosa, pero requiere mucho trabajo. Necesitamos pensar en cómo podemos satisfacer las nuevas necesidades de los usuarios

Liz Reid, directora de Google Search

Reid explica que el sistema convencional, aunque admite que ha sido una “herramienta increíblemente poderosa”, “requiere mucho trabajo”. La búsqueda tradicional (conocida como googlear) de un restaurante o cualquier otro servicio cerca de la ubicación del usuario ofrece un mapa de sus localizaciones y una ristra de sus páginas webs donde el demandante de la información tiene que completar el proceso consultando una a una y sorteando, si quiere, las que pagan por situarse en la cabeza de los resultados. O también puede ir acotando y precisando qué tipo de comida o servicio específico necesita hasta conseguir listas de webs más precisas.

Este tedioso proceso llega a su fin. “Modificamos radicalmente cómo funciona”, afirma Sundai Pichai, máximo responsable de Google. Y Reid lo completa: “Hemos construido un modelo personalizado de Gemini diseñado específicamente para la búsqueda que combina nuestra información en tiempo real con sistemas de clasificación y calidad sin precedentes”.

La directiva asegura que, en las pruebas realizadas, “la gente también hace clic en una mayor diversidad de sitios web”. Esta tendencia obligará a modificar las estrategias de SEO, siglas en inglés de Search Engine Optimization (Optimización para Motores de Búsqueda) y que son las técnicas para mejorar la posición de un sitio web en los resultados de los motores de búsqueda. Ahora se tendrán que adaptar a la forma de procesar la información de la inteligencia artificial.

Los nuevos motores escuchan, entienden el contexto del usuario, razonan, planifican y, a petición de la persona, pueden ejecutar la orden de compra de un producto o servicio, sugerir complementos y reservar un servicio.

Entiende, ve, razona y planifica

Los nuevos buscadores tienen capacidad de razonar por pasos. De esta forma, le podemos pedir por voz un menú semanal que, con la interacción del usuario o con sus precisiones, ajustará a sus gustos. El siguiente paso puede ser que lo adapte a un vegetariano y modificará las recetas ya seleccionadas a esta petición.

También planifican. El usuario le puede pedir que programe un viaje a cualquier parte con actividades para niños y adultos, uno amante de la naturaleza y otro apasionado de la cultura.

Del mismo modo, pueden comprar por imagen. El usuario solo tiene que introducir un vídeo e indicar por voz o texto qué personaje lleva la prenda que busca y los resultados mostrarán localizaciones, precios y disponibilidad. O simplemente rodear con el dedo la imagen de la ropa precisa en cuestión. O incluso mostrar la secuencia de una avería y los resultados llevarán a información para repararla o servicios que lo hacen.

Google ha sido el primero en lanzar su nuevo buscador, pero otras compañías, como Microsoft, avanzan con Copilot en similares características y con el apoyo de OpenAI.

Agentes

Precisamente OpenAI, que ha servido de motor en el vertiginoso desarrollo de la inteligencia artificial, aún no ha presentado un producto similar, pero sí ha abierto la brecha con el otro gran avance de esta semana, aunque Google ya lo presentó en abril para sus clientes de Cloud, la nube que alberga gran parte de los trabajos de los desarrolladores. Se trata de los agentes o asistentes avanzados de inteligencia artificial, los que están cavando la tumba de Siri, Alexa o el propio Hey Google.

Solo 24 horas antes que Google anunciara Astra, el nombre de su futuro agente, OpenAI presentó ChatGPT-4o, un robot conversacional que también es capaz de ver, oír, resolver y ejecutar tareas en nombre del usuario. Será accesible a través de la web y de la aplicación móvil de forma gratuita, aunque la versión más avanzada (cinco veces más capaz) costará 20 dólares al mes (18 euros).

Sam Altman, máximo responsable OpenAI, coincide con DeepMind en que estos revolucionarán las vidas, según publica MIT Technology Review. Altman también considera en que las aplicaciones de IA como el generador de imágenes mediante peticiones de voz o texto, como DALL-E o Sora, o de textos, como las primeras versiones de ChatGPT, han sido solo eso, herramientas simples. “Nos han cautivado, pero, en su mayoría, las usamos para tareas aisladas y tienen una capacidad limitada para aprender sobre nosotros a partir de nuestras conversaciones con ellos”, afirma.

El agente es un colega supercompetente que sabe absolutamente todo de mi vida, cada correo electrónico, cada conversación que he tenido, pero no se siente como una extensión. Puede abordar algunas tareas al instante y, para las más complejas, salir y hacer una propuesta o regresar con preguntas si es necesario

Sam Altman, máximo responsable de OpenAI

El asistente avanzado de IA o agente, según el directivo responsable de ChatGPT-4o, “es capaz de ayudarnos fuera de la interfaz de chat [el acceso conversacional] y quitarnos de encima las tareas del mundo real”. “Es un colega supercompetente que sabe absolutamente todo de mi vida, cada correo electrónico, cada conversación que he tenido, pero no se siente como una extensión. Puede abordar algunas tareas al instante y, para las más complejas, salir y hacer una propuesta o regresar con preguntas si es necesario”, añade.

Chirag Shah, profesor de la Universidad de Washington y ajeno a los desarrollos de las grandes compañías coincide. “Este agente realmente te conoce bien, puede hacer muchas cosas por ti y puede trabajar en múltiples tareas y dominios”, afirma también en MIT Technology Review.

El de Google se denomina Astra y estará plenamente operativo a finales de año. Su versión más avanzada estará disponible en la versión IA Premium de Google One y se ofrecerá (ha comenzado en EEUU antes de extenderse) de forma gratuita dos meses para pasar a costar unos 20 dólares al mes (21,99 euros en España). Google trabaja para incluirlo, además de en el móvil, en gafas inteligentes y otros dispositivos. “Estamos abiertos a todas las formas, pero si OpenAI mantiene una versión limitada gratuita, es posible que tengamos que hacer lo mismo”, admite un directivo que pide no ser identificado durante un encuentro en EE UU .

Estos agentes pueden ver y escuchar mejor lo que hacemos, entienden el contexto en el que nos encontramos y responden rápidamente en la conversación

Demis Hassabis, director de Google DeepMind

Astra combina las nuevas capacidades del buscador Gemini con habilidades robóticas humanizadas, como empatía y sentidos del oído y vista para analizar y registrar el contexto con el fin de responder a cualquier interacción relacionada con lo que pasa por la cámara y los micrófonos. Demis Hassabis, lo explica: “Estamos procesando un flujo de información sensorial diferente. Estos agentes pueden ver y escuchar mejor lo que hacemos, entienden el contexto en el que nos encontramos y responden rápidamente en la conversación, haciendo que el ritmo y la calidad de la interacción sean mucho más naturales”.

Con estas habilidades, Astra y ChatGPT-4o son capaces de acompañar al usuario desde el móvil y ver el contexto en el que se produce la interacción para responder cómo se llama la parte específica de un objeto que señala o resolver un problema matemático escrito sobre un papel o identificar una página de códigos o saber dónde hemos dejado un objeto que haya pasado por sus ojos.

Pero, aunque estas capacidades sean espectaculares, su mayor utilidad está en el ámbito cotidiano de trabajo o doméstico. El usuario puede pedirle que identifique todos los gastos destinados a una partida, como los seguros o la electricidad, los analice, los muestre en una hoja ordenada por cuantías e incluso identifique opciones de ahorro.

El agente se moverá por los correos, los documentos almacenados y cualquier archivo o web que contenga esa información y al que se le autorice el acceso, lo resumirá y ordenará, navegará por las páginas de proveedores de los servicios en cuestión, propondrá un plan de ahorro y, si el usuario lo demanda, ejecutará las renovaciones, bajas o sustituciones.

Las aplicaciones son varias y el objetivo es contar con máquinas asistentes de forma general. Minsu Jang, investigador principal del Laboratorio de Robótica Social del Instituto de Investigación en Electrónica y Telecomunicaciones de Corea, trabaja el desarrollo de la IA para planificación de tareas: “Planeamos investigar y desarrollar tecnologías que puedan predecir fallos en tareas en situaciones inciertas y mejorar la respuesta al humano cuando pida ayuda. Esta tecnología es esencial para hacer realidad la era de un robot por hogar”.

Ventajas y riesgos

El trabajo de una decena de universidades y entidades para DeepMind sobre los nuevos desarrollos identifica ventajas y riesgos de estos.

En el primer grupo, destacan que estos agentes o asistentes avanzados pueden “empoderar a los usuarios” para alcanzar sus metas o su bienestar o actuar como “mentores, amigos o asesores de confianza”. En este sentido, un nuevo estudio publicado recientemente en el Journal of the American Medical Informatics Association (JAMIA), revela cómo la inteligencia artificial es capaz de responder a diferentes estados motivacionales. En una evaluación de ChatGPT, Gemini y Llama (Meta), la Universidad de Illinois ha mostrado la importancia de esta habilidad. “Los agentes pueden ayudar a aumentar, por ejemplo, la conciencia sobre los comportamientos saludables, a comprometerse emocionalmente con los cambios y a darse cuenta de cómo sus hábitos podrían afectar a las personas que los rodean”, explica Michelle Bak, investigadora de los modelos.

También pueden ayudar a los usuarios a tomar decisiones más informadas o a desarrollar su creatividad o la formación personal o a la resolución de problemas, aportando más tiempo para otras actividades, como la relación personal o familiar.

Pero este mundo ideal tiene también sus sombras. Esta misma semana se ha producido una dimisión en el departamento de seguridad de OpenAI. Jan Leike, uno de sus directores, ha sido tajante al escribir en X que la empresa valora más la creación de nuevos productos que la seguridad y ha acompañado el portazo de una reflexión. “Construir máquinas más inteligentes que los humanos es una empresa intrínsecamente peligrosa”.

Estos robots que pueden acompañarnos en nuestros bolsillos pueden equivocarse al interpretar los intereses de los usuarios y de la sociedad o utilizar fuentes de información imprecisas e incluso falsas para lanzar sus propuestas y conclusiones o priorizar soluciones a corto plazo frente a las consecuencias a largo plazo.

Los asistentes de IA también podrían vulnerar la privacidad y ser potencialmente inseguros si arrojan una respuesta incorrecta o incluso dañina para el usuario con apariencia de veracidad. Las alucinaciones, como se denominan estos errores, son habituales en las herramientas existentes.

Del mismo modo, pueden responder a intereses particulares de los desarrolladores y limitar las respuestas solo a los objetivos de estos, que pueden ser económicos, y no de los usuarios o incluso primar el beneficio de estos últimos frente a las consecuencias en la colectividad.

Y estos agentes pueden imponer valores a la sociedad, creando corrientes de opinión determinadas, o ser utilizados para campañas maliciosas de ataques informáticos. “Hemos investigado 36 elecciones parlamentarias, regionales y presidenciales celebradas entre septiembre de 2023 y febrero de 2024 y descubierto que, en al menos 10 casos, se utilizaron vídeos y grabaciones de audio con clonación de voz para campañas de desinformación. En el contexto de las elecciones europeas, podemos esperar una nueva oleada de engaños en todos los países”, explica Sergey Shykevich, director del grupo de inteligencia sobre amenazas de Check Point Research.

Puedes seguir a EL PAÍS Tecnología en Facebook y X o apuntarte aquí para recibir nuestra newsletter semanal.

Seguir leyendo

]]>
CINTA ARRIBAS
<![CDATA[Mike Davies, Intel Labs: “Se está llegando al límite de lo que la informática básica puede proporcionar”]]>https://elpais.com/tecnologia/2024-05-20/mike-davis-intel-labs-se-esta-llegando-al-limite-de-lo-que-la-informatica-basica-puede-proporcionar.htmlhttps://elpais.com/tecnologia/2024-05-20/mike-davis-intel-labs-se-esta-llegando-al-limite-de-lo-que-la-informatica-basica-puede-proporcionar.htmlMon, 20 May 2024 03:20:00 +0000El constante incremento de tráfico de datos (un 22% más el pasado año en relación con 2022, según DE-CIX) y las nuevas exigencias computacionales de la inteligencia artificial llevan a los sistemas convencionales al límite. Se necesitan nuevas fórmulas y la computación cuántica aún no es alternativa. La compañía electrónica Intel es una de las más avanzadas en el desarrollo de sistemas neuromórficos, una conjunción de biología y tecnología que busca imitar la forma en que los seres humanos procesan la información. Junto a ella, en esta carrera por un procesamiento más eficaz y eficiente, corren IBM, Qualcomm y centros de investigación como el Instituto de Tecnología de California (Caltech), donde nació este concepto de la mano de Carver Mead, el MIT (Instituto de Tecnología de Massachusetts), el Instituto Max Planck de Neurobiología en Alemania y la Universidad de Stanford.

Intel ha anunciado este mes el mayor sistema neuromórfico del mundo: Hala Point, con 1.150 millones de neuronas tecnológicas y 1.152 procesadores (chips) Loihi 2 que consumen un máximo de 2.600 vatios y con una capacidad de procesamiento equivalente a la del cerebro de un búho. Un estudio publicado en IEEE Xplore le atribuye mayor eficiencia y rendimiento que los sistemas basados en unidades de procesamiento centrales (CPU) y gráficos (GPU), los motores informáticos convencionales.

Mike Davies, nacido en Dallas y que en julio cumple 48 años, es director de computación neuromófica en Intel Labs y máximo responsable de los últimos avances sobre los que descansa el futuro inmediato de la computación.

Pregunta. ¿Qué es un sistema neuromórfico?

Respuesta. Es un diseño de computación que se inspira en la comprensión moderna de cómo funcionan los cerebros y que significa superar las siete u ocho décadas de arquitectura convencional. Desde una perspectiva básica, estamos tratando de comprender los principios de la neurociencia moderna para aplicarlo a los chips y sistemas con el fin de crear algo que opera y procesa información de forma más parecida a como funciona un cerebro.

P. ¿Cómo funciona?

R. Si abres el sistema, los chips, ves diferencias muy llamativas en el sentido de que no hay memoria; todos los elementos de computación, de procesamiento y memoria están integrados entre sí. Nuestro sistema Hala Point, por ejemplo, es una red tridimensional de chips similar a un cerebro y todo se comunica con todo, como una neurona se comunica a través del cerebro con otro conjunto de neuronas conectadas. En un sistema tradicional, tienes memoria al lado de un procesador y el este lee continuamente fuera de la memoria.

Hala Point es una red tridimensional de chips similar a un cerebro y todo se comunica con todo, como una neurona se comunica a través del cerebro con otro conjunto de neuronas conectadas

P. ¿Es necesario este modelo porque estamos llegando al límite de computación convencional?

R. Se está progresando mucho en inteligencia artificial y en aprendizaje profundo. Es muy emocionante, pero es difícil ver cómo continuarán estas tendencias de investigación cuando el incremento en los requisitos de computación para estos modelos de IA crece a tasas exponenciales, es decir, mucho más rápido que los avances de fabricación. Se está llegando al límite de lo que esta arquitectura informática básica puede proporcionar. Además, si nos fijamos solo en la eficiencia energética de estos chips y sistemas de IA tradicionales en comparación con el cerebro, hay muchos órdenes de magnitud de diferencia. No es tanto que las arquitecturas informáticas tradicionales no sean capaces de proporcionar grandes ganancias en computación e inteligencia artificial, sino que estamos buscando una mayor funcionalidad, al disponer de computadoras que operan como el cerebro, y hacerlo de una manera muy eficiente.

P. ¿Es la eficiencia energética la principal ventaja?

R. Es una de las principales. Hay una gran diferencia en la eficiencia del cerebro y la de la computación tradicional. Pero las arquitecturas neuromórficas inspiradas en el cerebro pueden proporcionar también ventajas de rendimiento. Pensamos en las GPU como dispositivos de rendimiento increíblemente alto, pero, de hecho, solo si tienes un tamaño muy grande y gran cantidad de datos para procesar disponibles en el disco o justo al lado del procesador para que se puedan leer. Pero si los datos llegan de los sensores, de las cámaras o de los videos en tiempo real, entonces, la eficiencia y el poder de las arquitecturas tradicionales es mucho menor. Ahí es donde las arquitecturas neuromórficas realmente pueden proporcionar un gran aumento en la velocidad, así como de eficiencia.

P. ¿La inteligencia artificial necesita un sistema neuromórfico para crecer?

R. Creemos que sí. Pero estamos en un nivel de investigación. No está claro hoy cómo implementar esto comercialmente. Hay muchos problemas aún por resolver en cuanto al software [programación], los algoritmos. Muchos enfoques convencionales no se ejecutan de forma nativa en hardware [equipos] neuromórfico porque es un enfoque de programación diferente. Creemos que este es el camino correcto para lograr las ganancias que necesitamos en eficiencia energética y en rendimiento para este tipo de cargas de trabajo, pero sigue siendo una pregunta abierta.

P. ¿Veremos un chip neuromórfico en un ordenador o un teléfono móvil?

R. Creo que sí, es cuestión de tiempo. No será el próximo año, pero la tecnología madurará y se implementará en edge computing [procesamiento de datos cerca de su origen para ganar velocidad y eficiencia], móviles, vehículos autónomos, drones o en el ordenador portátil. Nuestro Hala Point, diseñado para un centro de datos, es una caja del tamaño de un microondas grande. Pero, si miramos a la naturaleza, vemos que hay cerebros de todos los tamaños. Los de insectos son muy impresionantes, incluso a pequeña escala. Y luego está, por supuesto, el cerebro humano. Estamos siguiendo ambas direcciones en la investigación. Creemos que la comercialización comenzará en el edge computing, pero hay una necesidad de seguir empujando y haciendo investigación a gran escala.

En los centros de datos podríamos ver estos sistemas en cinco años

P. ¿Cuándo estarán?

R. Es difícil de predecir porque todavía hay preguntas abiertas en la investigación. En los centros de datos podríamos ver estos sistemas en cinco años. También vemos futuro en todo lo que necesita funcionar con batería, ya que el ahorro de energía que puede ofrecer un sistema neuromórfico es extremadamente importante. También hay aplicaciones algo menos obvias, como las estaciones base inalámbricas para la infraestructura de telefonía. Estamos trabajando con Ericsson para optimizar los canales de comunicación.

P. ¿Es la computación con sistemas neuromórficos complementaria a la cuántica?

R. Creo que son complementarios en algunos aspectos, aunque son muy diferentes. La computación cuántica está buscando la innovación en la fabricación de dispositivos físicos y tratando de escalar. Lo que ofrece es muy novedoso e impresionante, pero no está claro cuál será el modelo de programación de la cuántica una vez que se pueda escalar y qué tipo de cargas soportará. La computación neuromórfica disponible hoy es muy buena para el tipo de cargas de trabajo de IA. Pero hay una intersección en el espacio de aplicación de la cuántica y la neuromórfica y ahí es donde es interesante pensar en resolver problemas de optimización difíciles y permitir que las personas experimenten, creen prototipos y aprendan a programar este tipo de sistemas.

Implantar chips neuromórficos en el cerebro es una aplicación muy natural de estos sistemas porque, al ser una arquitectura que se comporta como las neuronas, hablaría naturalmente el lenguaje de nuestro cerebro

P. ¿Podríamos ver sistemas neuromórficos instalados en nuestro cerebro?

R. Hay algunos investigadores interesados en la neuroprótesis, en la aplicación de la computación neuromórfica, lo que significaría tratar de reparar problemas o patologías en el cerebro donde ha habido alguna pérdida de función y devolver el control sobre tu cuerpo. La investigación está en una etapa temprana, pero creo que, a largo plazo, es una aplicación muy natural de la computación neuromórfica porque, al ser una arquitectura que se comporta como las neuronas, hablaría naturalmente el lenguaje de nuestro cerebro.

P. Los sistemas disponibles, ¿a qué cerebros equivalen?

R. En términos de la cantidad de neuronas, es similar al cerebro de búho. Pero si nos fijamos en la zona del cerebro donde ocurre gran parte de la inteligencia de orden superior, equivaldría a un mono capuchino. Muchos de nosotros, en este campo de investigación, tenemos el cerebro humano en mente como una especie de visión para la escala de sistema que nos gustaría construir. Pero no tratamos de llegar demasiado rápido. Tenemos que construirlo bien y necesitamos saber cómo hacerlo útil. Por eso este sistema sigue siendo una herramienta para la investigación, para que podamos seguir experimentando

P. ¿En qué casos concretos son más eficaces estos sistemas?

R. En encontrar el mejor camino en un mapa vemos aceleraciones de hasta 50 veces en comparación con los mejores solucionadores convencionales. En términos de energía se están alcanzando niveles 1.000 veces más eficientes.

P. ¿Podría aprovechar Europa esta nueva línea para recuperar posiciones en la carrera por los chips, de la que es dependiente de otros continentes?

R. Si miramos hacia el futuro, hay mucha innovación que necesitaremos a largo plazo para lograr el tamaño y la eficiencia de la naturaleza, que sigue siendo increíblemente impresionante. Todavía hay un largo camino por recorrer y para llegar allí necesitamos innovación en la fabricación. Es necesario que haya nuevos dispositivos y nueva tecnología de memoria para asimilarlos al cerebro. Ahora no hay una región geográfica con ventaja en este dominio, por lo que es una oportunidad. La alta tecnología siempre implica innovación y nada permanece estático. Hay una necesidad de nuevos avances y es impredecible de dónde pueden venir.

Puedes seguir a EL PAÍS Tecnología en Facebook y X o apuntarte aquí para recibir nuestra newsletter semanal.

Seguir leyendo

]]>
INTEL
<![CDATA[Se busca con urgencia suplente para el litio de las baterías]]>https://elpais.com/tecnologia/2024-05-24/se-busca-con-urgencia-suplente-para-el-litio-de-las-baterias.htmlhttps://elpais.com/tecnologia/2024-05-24/se-busca-con-urgencia-suplente-para-el-litio-de-las-baterias.htmlFri, 24 May 2024 03:20:00 +0000La utilización de elementos como el litio, el cobalto y níquel para la fabricación de baterías supone una dependencia de materiales escasos (y, por lo tanto, caros), tóxicos y cuya extracción y procesamiento causa numerosos problemas ambientales; hacen falta dos millones de litros de agua para extraer 1.000 kilos de litio. Los investigadores buscan con urgencia sustitutos que sean abundantes, renovables, biodegradables, seguros y de bajo coste e impacto ambiental. La solución puede estar cerca: el sodio y el calcio, dos elementos abundantes con los que se investiga para evitar que la demanda de litio se multiplique por 60 en dos décadas, según las previsiones de la UE.

A la imparable proliferación de dispositivos domésticos y portátiles se suman los dos mayores desafíos: la electrificación de la movilidad y el almacenamiento de las energías renovables para disponer de corriente de forma continua. “No hay suficientes iones de litio, cobalto y níquel para satisfacer las necesidades de todos”, afirma John Abou-Rjeily, investigador de la empresa Tiamat Energy, surgida del Centro Nacional de Investigación Científica de Francia (CNRS).

Este doctor en Física y Química de los Materiales investiga, según publica Horizon, como alternativa el sodio, uno de los elementos químicos más abundantes en la corteza terrestre y cuyo procesamiento y uso es, a diferencia del litio, más seguro y barato. Por el contrario, necesita más volumen, por los que los desarrollos actuales aún no son adecuados para pequeños dispositivos.

Tampoco pueden competir con el alcance que aportan los sistemas de almacenamiento actuales a los coches eléctricos. Pero podrían servir para alternativas en trayectos más cortos, los mayoritarios. “Si bien nunca desafiaría el alcance de 500 kilómetros de las baterías de iones de litio, este tipo de iones de sodio podría ser más competitivo para tramos más pequeños. Podrían ser más baratos para distancias cortas y medias en coche, explica Abou-Rjeily.

En la misma línea se encuentran los investigadores de las universidades Chalmers de Tecnología (Suecia) y Delaware (Estados Unidos), según un estudio publicado en Energy. “Hay una tendencia a demandar una batería realmente grande. Pero según las investigaciones, generalmente, es suficiente una un poco más pequeña, con menor alcance que el de un tanque de gasolina, ya que el único momento en que necesitaría una autonomía mayor es para un viaje de seis horas o más, en cuyo caso, el conductor podría cargar sobre la marcha. Se hace demasiado hincapié en la necesidad de una autonomía realmente larga y esto conduce a un aumento del precio del vehículo y a un mayor uso de los recursos para los coches eléctricos”, comenta Frances Sprei, profesor de Chalmers.

Para este doctor en Energía y Media Ambiente, es necesario este cambio de mentalidad para adecuar las instalaciones de carga donde las personas pasan más tiempo: en casa y en el trabajo. Sprei lamenta que, por el contrario, muchos países europeos se centran en la red de recarga en carreteras y vías.

Esta simple modificación de la percepción de las necesidades impulsaría aún más al sodio como alternativa, ya que permitiría desplegarlas en hogares y centros de trabajo como sistemas de almacenamiento de energía procedente de fuentes renovables. En este sentido trabaja Magdalena Graczyk-Zajac, profesora de la Universidad Técnica de Darmstadt en Alemania, e integrante del proyecto europeo SIMBA, que concluye su primera fase el próximo junio.

Se podría conducir el coche gratis durante ocho o nueve meses al año

Magdalena Graczyk-Zajac, profesora de la Universidad Técnica de Darmstadt

La investigadora apuesta por almacenar la energía capturada por los paneles fotovoltaicos de los hogares en una batería doméstica recargable de iones de sodio. Esta alimentaría las casas y cargaría los vehículos eléctricos de sus moradores con una significativa reducción de costes. “Se podría conducir el coche gratis durante ocho o nueve meses al año”, asegura. El prototipo ya está en pruebas de laboratorio.

Una parte, el ánodo, está hecha de carbono duro, que se puede obtener a partir de madera u otros residuos biológicos. Para el cátodo se prueba con blanco de Prusia, un compuesto químico procedente de un pigmento azul del mismo nombre, pero con más sodio y rico en hierro, uno de los metales más abundantes.

El centro de investigación vasco CIC energiGUNE, cuenta con su propio desarrollo en este ámbito: un ánodo metálico de sodio con un espesor de tan sólo siete micras (70 veces más fino que los actuales) conseguido a través de un proceso de evaporación física. “Este avance”, según este centro, “abre la puerta a la fabricación de baterías flexibles de estado sólido con el ánodo delgado de sodio, una alternativa más segura, económica y de menores dimensiones a las actuales baterías con electrolito líquido en las que se emplea grafito”.

“El sodio no se puede laminar con facilidad debido a su textura pegajosa, parecida a la plastilina”, explica Montse Galcerán, investigadora principal de este proyecto a CIC energiGUNE. “Hasta la fecha, el método más común que se usaba para laminar un bloque de sodio era tan básico como procesarlo con un martillo, pero eso provocaba que no se pudiera obtener una lámina fina y homogénea, y, por tanto, hubiera un gran exceso de sodio inutilizado en las baterías. Gracias a la evaporación, hemos logrado superar ese obstáculo”, asegura.

Este adelgazamiento del ánodo permite reducir la cantidad de sodio necesaria, y los costes, el peso y las dimensiones de las baterías, mientras aumenta de la densidad de energía (mayor capacidad de acumulación) y la seguridad.

Si la materia prima es barata, también las baterías pueden serlo

Rosa Palacín, Instituto de Ciencia de Materiales de Barcelona (ICMAB-CSIC)

Otro elemento con el que se trabaja como sustituto del litio es el calcio. “Es uno de los elementos más abundantes en la corteza terrestre y no se concentra en áreas geográficas específicas, como ocurre con el litio. Si la materia prima es barata, también las baterías pueden serlo”, sostiene Rosa Palacín, del Instituto de Ciencia de Materiales de Barcelona (ICMAB-CSIC) e integrante del proyecto CARBAT a Horizon.

Utilizar calcio como electrodo negativo ofrece ventajas frente al grafito de las baterías de iones de litio, ya que posee una capacidad de acumulación por kilogramo (densidad de energía) superior a las baterías convencionales de litio que, además, forman diminutas estructuras rígidas denominadas dendritas y pueden provocar cortocircuitos o explotar tras muchos usos, según explica la entidad.

“Cuando el calcio atraviesa el electrolito, dos electrones fluyen al exterior, en lugar de uno, como en el caso del litio. Cabe suponer que una batería del mismo tamaño ofrecería una autonomía mayor si se utiliza en un vehículo eléctrico, siempre que se encuentre un electrodo positivo adecuado”, explica Palacín.

La clave es la elección de los componentes más adecuados. “Parece que, finalmente, todas las sales de electrolitos que funcionan contienen boro. Utilizamos tetrafluoroborato de calcio disuelto en una mezcla de etileno y carbonato de propileno”, precisa la investigadora.

Otros investigadores de la Universidad Técnica de Dinamarca buscan, en el proyecto SALBAGE, una batería a partir de un ánodo de aluminio y un cátodo de azufre. El aluminio es incluso más abundante que el calcio, pero incorporarlo a una batería plantea dificultades similares.

“Todos los materiales empleados son baratos. El aluminio, el azufre, el propio electrolito y la urea son muy, muy baratos. Incluso el polímero lo es”, asegura el investigador de la universidad danesa Juan Lastra, quien defiende esta opción para almacenar energía de un parque eólico o solar.

Puedes seguir a EL PAÍS Tecnología en Facebook y X o apuntarte aquí para recibir nuestra newsletter semanal.

Seguir leyendo

]]>
Morris MacMatzen
<![CDATA[Las adolescentes pasan hasta seis horas con el móvil, según un estudio]]>https://elpais.com/tecnologia/2024-05-22/las-adolescentes-pasan-hasta-seis-horas-con-el-movil-segun-un-estudio.htmlhttps://elpais.com/tecnologia/2024-05-22/las-adolescentes-pasan-hasta-seis-horas-con-el-movil-segun-un-estudio.htmlWed, 22 May 2024 03:20:00 +0000“Me he quitado de Instagram y de Tik Tok”, relata Inma Rojas, de 18 años recién cumplidos y estudiante de segundo curso de bachillerato en Sevilla. “Me he dado cuenta de que me quita mucho tiempo”, explica esta alumna que se enfrenta en dos semanas a la temida prueba de acceso a la Universidad. Antes de tomar esta decisión, le dedicaba más de tres horas al día para relajarse y entretenerse, según dice. Sus horas de móvil superan las que aconseja la Organización Mundial de la Salud (120 minutos diarios máximo), pero no llegan a las seis registradas por las adolescentes que han participado en un estudio publicado en Archives of Disease in Childhood, del British Medical Journal y el Royal College of Paediatrics and Child Health. Los efectos de este abuso son peores calificaciones, aumento de la ansiedad, peor imagen de su cuerpo y menor bienestar.

El estudio, realizado sobre un millar de alumnas de entre 15 y 16 años de Finlandia, con mediciones reales e informaciones aportadas por las participantes, ha hallado que el tiempo medio de uso diario de teléfonos inteligentes ronda las seis horas. Otros estudios entre adolescentes suecos reflejaban una media de 161 minutos, casi tres horas. En España, según la Fundación Pasos, entre semana se rozan los 200 minutos diarios y los 300 en fines de semana.

Aunque los datos varíen, la clave está en que todos los análisis coinciden en un abuso generalizado que, según la autora del estudio finlandés, Silja Kosola, genera “ansiedad y otros trastornos mentales, especialmente entre las niñas, que contribuyen significativamente a la morbilidad adolescente en los países de ingresos altos”. Entre estos trastornos destaca la adicción a las redes sociales.

El tiempo diario dedicado a estas se asocia también, según Kosola, con un promedio de calificaciones más bajo, una percepción de la propia imagen corporal más pobre, peor salud y estado de ánimo, más cansancio y mayores sentimientos de soledad.

La propia investigadora admite que “se trata de un estudio observacional y, como tal, no se pueden sacar conclusiones firmes sobre los factores causales”. Sin embargo, concluye que, “las implicaciones son graves y los responsables políticos deben instar a las empresas tecnológicas a dar prioridad a la seguridad y la salud”.

El psicólogo Gadi Lissak, en un estudio previo más exhaustivo publicado en Science Direct, coincide con la conclusión: “El uso excesivo de los medios digitales por parte de niños y adolescentes aparece como un factor importante que puede obstaculizar la formación de una sólida resiliencia psicofisiológica”.

Lissak destaca los efectos del uso de dispositivos móviles y analiza no solo los tiempos, sino también los contenidos, el momento del día y los tipos de usos para identificar una veintena de perjuicios físicos, desde la pérdida de sueño a obesidad y problemas cardiovasculares; psicológicos, como depresión y dependencia; y psiconeurológicos, que suponen cambios en la estructura del cerebro.

La peor percepción, especialmente entre adolescentes, de la imagen corporal identificada en el estudio finlandés coincide con los resultados de la investigación presentada en la American Academy of Pediatrics por Cassidy Foley, de la Universidad de Florida. Foley también atribuye a las redes sociales parte de los problemas de autoestima del cuerpo y reconoce que “las mujeres tienden a ser un poco más infelices o estar más incómodas con su imagen corporal que los hombres”.

“Todas esas horas de tiempo frente a las pantallas en los jóvenes generan un corazón más pesado y, por lo que sabemos por estudios en adultos, aumenta las probabilidades de ataque cardiaco y accidente cerebrovascular”, señala Andrew Agbaje, de la Universidad de Finlandia Oriental y autor de un estudio para la Sociedad Europea de Cardiología.

En España, los dispositivos también forman parte del día a día de los menores, según datos del Observatorio Nacional de Tecnología y Sociedad de la Información (ONTSI), que señala que el 98% de ellos usa Internet de forma habitual y siete de cada diez tienen teléfono móvil (el 39% antes de los 11 años).

Las consecuencias del abuso son generales. El informe Influencia de la tecnología en la vida de los españoles, elaborado por la compañía de ciberseguridad Kaspersky, revela que casi un 70% de la población tiene dependencia de la tecnología y un 46% admite que debería reducir su uso, aunque solo uno de cada 10 ha acudido a terapia para lograrlo. Las funciones que más dependencia generan son las aplicaciones de mensajería instantánea (32%), las redes sociales (22%) y plataformas de visionado de vídeos en línea (11%).

Pese a esta realidad, el 26% de los progenitores admite no tener suficiente información para explicarles a sus hijos cómo hacer un uso seguro y responsable de Internet y el 75% cree que sus hijos no están preparados o no cuentan con las nociones suficientes para hacer un uso seguro de Internet, según una encuesta de la misma compañía.

Puedes seguir a EL PAÍS Tecnología en Facebook y X o apuntarte aquí para recibir nuestra newsletter semanal.

Seguir leyendo

]]>
Mònica Torres
<![CDATA[Microsoft multiplica por 200 la potencia del ordenador personal con Copilot + para dotarlo de IA]]>https://elpais.com/tecnologia/2024-05-21/microsoft-multiplica-por-200-la-potencia-del-ordenador-personal-con-copilot-para-dotarlo-de-ia.htmlhttps://elpais.com/tecnologia/2024-05-21/microsoft-multiplica-por-200-la-potencia-del-ordenador-personal-con-copilot-para-dotarlo-de-ia.htmlTue, 21 May 2024 08:19:11 +0000Tenía que pasar. Los ordenadores personales (PC) han vivido los últimos años una evolución sostenida, ganando poco a poco en capacidad y eficiencia. Hasta que ha llegado la inteligencia artificial. Microsoft ha iniciado este lunes en Estados Unidos la revolución de los dispositivos domésticos y de trabajo al anunciar Copilot+ PC, una nueva gama de Windows disponible el próximo día 18 de junio, 200 veces más potente y 100 veces más eficiente para incorporar inteligencia artificial. El ordenador registra toda la actividad para recuperarla con un simple comando de voz, es capaz de crear todo tipo de archivos sin depender de internet, traduce llamadas de forma simultánea y, cómo no, incorpora una tecla de acceso directo a ChatGPT-4o. La propia compañía, Acer, ASUS, Dell, HP, Lenovo y Samsung ya han anunciado modelos con Copilot +, que tendrán un coste medio de unos 1.000 euros.

“Este PC de próxima generación desbloquea nuevos niveles de rendimiento informático”, afirma Tae Moon Roh (TM Roh), presidente y director de Mobile eXperience Business en Samsung Electronics tras anunciar su modelo Galaxy Book4 Edge con Copilot+. Los nuevos ordenadores pueden ejecutar 40 billones de operaciones por segundo (TOPS) manteniendo la operatividad de la batería durante todo el día.

Recall. Los nuevos dispositivos incorporan una memoria fotográfica que registra en una línea de tiempo toda la actividad para que pueda ser recuperada con un simple comando de voz. De esta forma, se podrá volver a la página visitada a primera hora o retomar un correo perdido en la marea de mensajes o recordar una conversación pasada o recuperar la versión de un archivo. Al operar en local, Recall no ejecuta moderación de contenidos ni oculta información confidencial como contraseñas o números de cuenta, según advierte Microsoft en su página de preguntas frecuentes. No obstante, todos los equipos incorporan Microsoft Pluton Security, una actualización de Windows 11 para reforzar la seguridad de los usuarios y controles de privacidad personalizados.

Cocreator. Es la evolución de Image Creator, el generador de imágenes de la nube accesible a través de internet, lo que suponía ciertas limitaciones. Ahora, los ordenadores cuentan con unidades de procesamiento neuronal para, con modelos de lenguaje menores que los LLM, puedan crear o tratar archivos visuales a partir de las indicaciones orales.

Live Captions. Subtitula cualquier audio de más de 40 idiomas en directo o grabado y desde cualquier aplicación o plataforma de vídeo a subtítulos en inglés sin conexión.

Windows Studio. Mejora de forma automática la imagen y el sonido captado por la webcam..

Agente Copilot. Facilita el acceso a los modelos de IA más avanzados incluyendo el agente presentado la pasada semana por Open AI, ChatGPT-4o.

Para hacer a los PC más inteligentes, Microsoft ha innovado todos los sistemas, desde los procesadores (chips) hasta el sistema operativo, una actualización que la compañía considera “el hito más significativo en la plataforma Windows en décadas”.

De esta forma, a los motores tradicionales del ordenador (CPU y GPU) se une una unidad de procesamiento neuronal (NPU) y una nueva arquitectura para facilitar el uso tanto de los grandes como los pequeños modelos de lenguaje, los que alimentan la inteligencia artificial tanto en la nube como en los dispositivos.

Los primeros dispositivos contarán con procesadores Snapdragon de Qualcomm Oryon, pero el gigante Intel ha anunciado la llegada de sus procesadores Lunar Lake para el tercer trimestre de 2024. Estos se sumarán a más de 80 nuevos diseños de portátiles de más de 20 fabricantes de equipos originales con PC Copilot+

“Estamos en un punto de inflexión en el que el PC acelerará la innovación de la IA. Creemos que las experiencias más ricas solo serán posibles cuando la nube y el dispositivo trabajen de forma conjunta. De la mano de nuestros socios, estamos sentando las bases para la próxima década de innovación en Windows”, ha señalado Yusuf Mehdi, vicepresidente ejecutivo y director de Marketing de Consumo de Microsoft.

Puedes seguir a EL PAÍS Tecnología en Facebook y X o apuntarte aquí para recibir nuestra newsletter semanal.

Seguir leyendo

]]>
Microsoft
<![CDATA[IBM se ofrece como quitamiedos para impulsar el desarrollo de la inteligencia artificial]]>https://elpais.com/tecnologia/2024-05-21/ibm-se-ofrece-como-quitamiedos-para-impulsar-el-desarrollo-de-la-inteligencia-artificial.htmlhttps://elpais.com/tecnologia/2024-05-21/ibm-se-ofrece-como-quitamiedos-para-impulsar-el-desarrollo-de-la-inteligencia-artificial.htmlTue, 21 May 2024 04:00:00 +0000La adopción de la inteligencia artificial (IA) genera tantas expectativas como incertidumbres. Una encuesta de IBM revela que casi la mitad de los responsables de compañías piensa introducirla en sus procesos y que la misma proporción teme sus consecuencias y las dificultades para implementarla. La multinacional ha anunciado hoy, durante su encuentro anual Think en Estados Unidos, los últimos avances para desterrar estos miedos. Sus aplicaciones han llegado a compañías como Meta, que incorpora estos desarrollos a la tercera versión de Llama, Amazon, Microsoft, Mistral o SAP, entre otros, pero se alejan de los agentes presentados esta semana por Google y Open AI.

IBM quiere ser un quitamiedos en un vertiginoso escenario de crecimiento de la inteligencia artificial, que avanza más rápidamente que la capacidad empresarial para comprenderla y aplicarla sin riesgos. Con este fin, la multinacional ha actualizado su plataforma integral de código abierto (Watsonx), que incorpora avances en los modelos de Granite e InstructLab.

“Estamos abriendo el código de grandes modelos de lenguaje de Granite que IBM ha creado. Y la razón por la que esto es increíblemente importante es porque este es el mejor camino para proporcionar transparencia, innovación y seguridad para escalar la IA con un contexto empresarial. Lanzamos los modelos de código de mayor rendimiento en su clase en el mundo”, asegura el vicepresidente de IBM y director de la división de investigación (IBM Research), Darío Gil.

“Abierto significa elección. Abierto significa más ojos en el código, más mentes en los problemas y más manos en las soluciones. Para que cualquier tecnología gane velocidad y se vuelva omnipresente, hay que equilibrar tres cosas: competencia, innovación y seguridad. El código abierto es una excelente manera de lograr los tres”, completa el director general de la compañía Arvind Krishna.

Con esta estrategia, la compañía ha avanzado este martes nuevos desarrollos de Watsonx, la plataforma integral de inteligencia artificial que IBM creó hace un año para ayudar a las empresas a escalar y acelerar la implementación de soluciones de IA, desde la creación y entrenamiento de modelos de IA hasta su implementación y gestión en producción.

Esta plataforma incluye mejoras en Granite (disponible desde hoy bajo licencias Apache 2.0 en HuggingFace y Github) para ofrecer desde la nube modelos ya entrenados y disponibles para ser incorporados a las aplicaciones empresariales sin necesidad de empezar desde cero y con garantías de seguridad. “Los lanzamos con una licencia Apache 2.0 para dar el máximo nivel de flexibilidad a la comunidad y a nuestros clientes para construir sobre ellos”, explica Gil.

También ha presentado IBM el proyecto InstructLab, la plataforma desarrollada en colaboración con Red Hat para simplificar el proceso de creación, entrenamiento y despliegue de modelos de inteligencia artificial (IA) y aprendizaje automático (machine learning) mediante la utilización de IA generativa.

“InstructLab permite a nuestros clientes ser capaces de agregar conocimientos, habilidades y sus propios datos de una manera segura y confiable para casos de uso empresarial”, explica Gil. IBM planea aprovechar los avances colaborativos con código abierto para aportar valor adicional a través de integraciones con watsonx.ai y la nueva solución Red Hat Enterprise Linux AI (RHEL AI).

Los modelos de IA que propone IBM utilizan un rango de parámetros inferior al de sistemas de otras compañías. Gil lo explica. “Es la tendencia de la industria: obtener el rendimiento que se necesita para los casos de uso y a un coste asumible”.

En esta misma línea, tampoco los asistentes construidos con los sistemas de esta compañía intentan llegar a los desarrollos de los agentes presentados la pasada semana por Google y Open Ai. No es su objetivo. Rob Thomas, jefe comercial y de programación, argumenta que los desarrollos de los otros gigantes de internet van a “mercados muy diferentes” del que busca IBM. “El enfoque que veo en Open AI y en Google es la interacción con el consumidor. Este tipo de cosas no es nuestro enfoque, sino los casos de uso empresarial, el trabajo digital, que consiste en automatizar tareas repetitivas en una organización que luego se extiende a cosas como los datos y la gobernanza de la IA”, abunda.

La estrategia de IBM responde a las previsiones de que la IA generativa impulse hasta 1.000 millones de aplicaciones para 2028 con el fin de automatizar procesos. En este campo, se ha presentado una herramienta (Concert) que estará disponible de forma general en junio de 2024 y que aspira a convertirse en “centro neurálgico” de las tecnologías de la información de la empresa. Permitirá identificar, predecir y solucionar problemas y riesgos, según IBM.

Al ecosistema de Watsonx se han incorporado Amazon Web Service (AWS) para la gobernanza de la inteligencia artificial en sus modelos predictivos de aprendizaje automático e IA generativa, Adobe y Meta, que ha incorporado la tecnología y programación de IBM a Llama 3, la última versión de inteligencia artificial con la que la compañía de Mark Zuckerberg intenta seguir a Google y Open AI. Por su parte, Watsonx ya está disponible para ejecutarse en Microsoft Azure y Palo Alto Networks, la compañía de ciberseguridad que se ha aupado a los primeros puestos en facturación. Salesforce, Mistral y SAP se suman a la lista de entidades vinculadas al ecosistema de IBM, según ha anunciado la compañía.

Puedes seguir a EL PAÍS Tecnología en Facebook y X o apuntarte aquí para recibir nuestra newsletter semanal.

Seguir leyendo

]]>
<![CDATA[Google refuerza su buscador y lo humaniza con habilidades de diálogo natural y visión]]>https://elpais.com/tecnologia/2024-05-14/google-refuerza-su-buscador-y-lo-humaniza-con-habilidades-de-dialogo-natural-y-vision.htmlhttps://elpais.com/tecnologia/2024-05-14/google-refuerza-su-buscador-y-lo-humaniza-con-habilidades-de-dialogo-natural-y-vision.htmlTue, 14 May 2024 18:05:47 +0000Tan solo 24 horas después de la presentación de ChatGPT-4o, la versión más avanzada del robot conversacional de Open AI, Google ha igualado y subido la apuesta este martes, cuando ha presentado mejoras similares para su buscador, que comienzan ya en Estados Unidos para ir extendiéndose al resto del mundo. La nueva plataforma de búsqueda reproduce las habilidades de lo que la compañía denomina “agentes”, con capacidad de planificar y ejecutar acciones en nombre del usuario, pero la humaniza hasta emular una interacción con una persona. A Gemini, como se denomina la inteligencia artificial de la multinacional y el buscador, se le puede interrumpir para reorientar la conversación y la cámara del móvil se convierte en sus ojos para describir lo que ve, resolver los problemas que observa o precisar dónde se encuentra un objeto que ha registrado durante su conversación. ¿Dónde he puesto las llaves? ¿Cuál es la solución de este problema? ¿Qué es esto? Pregunte a Gemini.

Google ha sacado todas sus fuerzas para contrarrestar a Open AI y luchar por su hegemonía en el ámbito de las búsquedas. El máximo responsable de la compañía, Sundar Pichai, ha asumido la presentación de los últimos avances en inteligencia artificial este martes en la edición anual de Google I/O en Mountain View (California). Se aplicará a todos los productos (Gmail, Fotos, Drive, Meet y cualquier herramienta del Workspace), pero especialmente, según ha afirmado Pichai, a la plataforma que es su baluarte: “La transformación más emocionante con Gemini, por supuesto, está en la búsqueda de Google. Modificamos radicalmente cómo funciona”.

“Gemini puede mantener una conversación personalizada e interactiva, mezclando y combinando entradas y salidas”, explica Pichai sobre la humanización de la interacción con el buscador, que deja de ser lineal (consultas y respuestas sucesivas) para pasar a emular una relación similar a la personal. Son habilidades que ya presentaron con los agentes en Las Vegas el pasado abril, durante el Google Next, donde se lanzaron los robots que planifican y ejecutan acciones en nombre del usuario. “Son sistemas inteligentes que muestran razonamiento, planificación y memoria. Son capaces de pensar varios pasos por delante y trabajar en todos los programas y sistemas o de hacer algo en nombre del usuario y, lo que es más importante, con su supervisión. Estamos pensando mucho en cómo hacerlo de una manera que sea privada, segura y que funcione para todos”, ha precisado el directivo en respuesta a los riesgos éticos identificados por el grupo de investigación de la propia compañía (DeepMind).

El buscador convencional, que arroja páginas web más o menos relacionadas con la solicitud del usuario, pasa a la historia con Gemini. Liz Reid, directora de Google Search, asegura que, aunque esta herramienta ha sido “increíblemente poderosa”, requiere “mucho trabajo”, en relación con la labor de afinar los descriptores y expurgar la información relevante de los miles de resultados obtenidos. “Buscar ha sido a través de una pregunta tras otra”, admite.

Las nuevas habilidades entienden, según explica, “qué es realmente lo que tienes en mente”, contextualiza, conoce desde dónde se interactúa y “razona” para ofrecer un resultado que aúna lo encontrado en varios dominios y expone un plan y consejos. Según explica con un ejemplo práctico, mientras al buscador tradicional se le preguntaba por restaurantes en la zona, gracias al AI Overview de Gemini, ahora se puede requerir “un lugar para celebrar un aniversario” y el buscador ofrece diferentes categorías de planes, precios, localizaciones y sugerencias. O también puede aportar un complejo programa de viaje para una familia de varios miembros con intereses diferentes. “Google puede hacer una tormenta de ideas por ti”, resalta Reid.

Pero Gemini va más allá de la conversación, razonamiento y planificación, que ya supone un avance radical. El nuevo paso es la mayor humanización posible y que, además de oído, adquiera otro sentido fundamental: la vista. Demis Hassabis, director de DeepMid, lo explica: “Siempre quisimos construir un agente universal que fuera útil en la vida cotidiana. Por eso hicimos que Gemini fuera multimodal desde el principio. Ahora estamos procesando un flujo de información sensorial diferente. Estos agentes pueden ver y escuchar mejor lo que hacemos, entienden el contexto en el que nos encontramos y responden rápidamente en la conversación, haciendo que el ritmo y la calidad de la interacción sean mucho más naturales”.

Hassabis muestra estas habilidades, que estarán disponibles en la aplicación Live para suscriptores del plan Advanced, en un plano secuencia grabado en tiempo real. El buscador utiliza la cámara del móvil para registrar el contexto real de una usuaria que le pregunta qué es lo que ve, cómo se llama la parte específica de un objeto que señala, cómo se resuelve un problema matemático escrito sobre un papel y cómo mejorar un proceso de distribución de datos en un esquema que se muestra una pizarra. Finalmente, le pregunta: “¿Dónde he dejado mis gafas?”. Gemini, que ha registrado todo lo que ha visto durante la interacción, aunque no sea relevante en la conversación mantenida hasta ahora, revisa en las imágenes percibidas y responde exactamente dónde las ha visto. A partir de ahí, las gafas actúan con Gemini.

“Gemini es mucho más que un robot de chat [conversación]. Está diseñado para ser su asistente personal”, explica Sissie Hsiao, vicepresidenta de Google y directora general de Gemini, en referencia al proyecto Astra que lidera su compañero Hassabis. Es lo que Sam Altman, máximo responsable de Open AI, competidora de Google y desarrollador del similar ChapGPT-4o, califica de “colega supercompetente”.

“Las respuestas son personalizadas [se puede elegir entre 10 voces y el sistema se ajusta al patrón de habla del usuario] e intuitivas para mantener una conversación real de ida y vuelta con el modelo. Gemini es capaz de proporcionar información de forma más sucinta y responder de manera más conversacional que, por ejemplo, si está interactuando solo con texto”, precisa Hsiao.

También se ha avanzado en potencia, no solo con nuevos dispositivos, como procesadores propios (el chip Axion y la TPU Trillium), sino también en capacidad de carga. Los suscriptores de Gemini 1.5 Pro podrán gestionar hasta un millón de tokens, lo que, según Hsiao, es “la mayor ventana de contexto”. Un token es la unidad básica de información. Se puede entender como una palabra, número, símbolo o cualquier otro elemento individual que constituye una parte de los datos de entrada o salida del programa. Con esta capacidad, Gemini puede cargar y analizar un PDF de hasta 1.500 páginas o 30.000 líneas de código o un video de una hora de duración o revisar y resumir varios archivos. Google espera ofrecer los dos millones de tokens.

Para facilitar la implementación de estas habilidades en dispositivos con menos capacidad, como los móviles, Google ha actualizado los sistemas específicos para estos terminales, que también se beneficiarán del desarrollo de Flash, un sistema de alto rendimiento que aporta velocidad, eficiencia y menor consumo.

Y aunque no ha sido en esta edición del Google I/O el principal avance, Google también ha presentado mejoras en los programas de inteligencia artificial para fotografías, con la versión 3 de Imagen, creación de vídeos (Veo) y de música, con Lyria y Synth ID. El buscador Ask Fotos, que comenzará a estar operativo en verano, será capaz de localizar y agrupar imágenes por temas a petición del usuario y crear un álbum con todas las imágenes relacionadas.

Puedes seguir a EL PAÍS Tecnología en Facebook y X o apuntarte aquí para recibir nuestra newsletter semanal.

Seguir leyendo

]]>
Jeff Chiu
<![CDATA[La evolución de la IA que hace parecer “increíblemente tonto” a ChatGPT y tiene riesgos éticos]]>https://elpais.com/tecnologia/2024-05-13/la-evolucion-de-la-ia-que-hace-parecer-increiblemente-tonto-a-chatgpt-y-tiene-riesgos-eticos.htmlhttps://elpais.com/tecnologia/2024-05-13/la-evolucion-de-la-ia-que-hace-parecer-increiblemente-tonto-a-chatgpt-y-tiene-riesgos-eticos.htmlMon, 13 May 2024 03:20:00 +0000Los agentes son, básicamente, robots capaces de satisfacer las demandas del usuario en comunicación con otras máquinas y humanos para generar y llevar a cabo una resolución compleja o creativa en su nombre. Ya no ofrecen solo respuestas o imágenes más o menos acertadas, sino que aportan soluciones, las planifican y las ejecutan usando el lenguaje natural. Los últimos avances hacia la inteligencia artificial (IA) general, la que iguala o supera a la humana, se han presentado durante el último Google Next celebrado en Las Vegas y son su apuesta en la partida donde juega OpenAI, que tiene previsto presentar hoy su nuevo desarrollo, y el resto de grandes compañías. Tan solo 10 días después de que Google lanzara sus agentes, el grupo de investigación de la propia multinacional (DeepMind) y una decena de universidades y entidades presentaban una investigación alertando de las implicaciones éticas de este desarrollo.

Thomas Kurian, consejero delegado de Google Cloud, describe la última carta de su compañía en el juego de la IA: “Vertex AI Agent Builder aúna modelos fundacionales, el buscador y otras herramientas de desarrollo para facilitar la creación e implementación de agentes. Proporciona la comodidad de una plataforma de creación de agentes sin código junto con potentes capacidades. Ahora puedes crear rápidamente una variedad de agentes de IA basados en la búsqueda de Google y los datos de tu organización”.

Para Sam Altman, máximo responsable en la competidora Open AI, los nuevos desarrollos de la IA son algo más que una aplicación y revolucionará las vidas, según publica MIT Technology Review: “Es un colega supercompetente que sabe absolutamente todo de mi vida, cada correo electrónico, cada conversación que he tenido, pero no se siente como una extensión. Puede abordar algunas tareas al instante y, para las más complejas, salir y hacer una propuesta o regresar con preguntas si es necesario”.

Para Altman, DALL-E, Sora o ChatGPT son “increíblemente tontos” en comparación con lo que viene: “Nos han cautivado con su capacidad para generar texto convincente y videos e imágenes surrealistas, pero, en su mayoría, siguen siendo herramientas que usamos para tareas aisladas y tienen una capacidad limitada para aprender sobre nosotros a partir de nuestras conversaciones con ellos”. La evolución de la IA, según sostiene al MIT, “será capaz de ayudarnos fuera de la interfaz de chat [el acceso conversacional] y quitarnos de encima las tareas del mundo real”.

La investigación de DeepMind coincide en su relevancia: “Es probable que los asistentes avanzados de IA tengan un profundo impacto en nuestras vidas individuales y colectivas. Para ser beneficiosos y estar alineados con los valores, los asistentes deben responder adecuadamente a las demandas y necesidades de los usuarios, los desarrolladores y la sociedad”.

Pero también advierte de sus consecuencias negativas: “Características como la capacidad de interactuar en lenguaje natural y los altos grados de personalización podrían hacer que los asistentes de IA sean especialmente útiles para los usuarios. Sin embargo, estas características también hacen que las personas sean vulnerables a la influencia inapropiada de la tecnología, por lo que se necesitan salvaguardias sólidas”.

Los agentes, como los denomina Google, son, según la investigación conjunta de DeepMind y las universidades, asistentes avanzados de inteligencia artificial (IA) que utilizan el lenguaje natural y cuya función es planificar y ejecutar secuencias de acciones, en uno o más dominios, en nombre de un usuario y de acuerdo con sus expectativas. En concreto, se trata de una herramienta accesible para cualquier empresa o entidad, aunque carezca de departamento informático, dirigida a cualquier usuario y que desempeña trabajos diversos como atención al cliente, tareas cotidianas, creación de contenido, análisis de datos, codificación de programas o prevención de ataques.

La demostración exhibida en Las Vegas permitió que una potencial cliente introdujera un vídeo de un grupo musical en el buscador inteligente y le pidiera que localizara una chaqueta como la que llevaba una de las integrantes. El agente, en este caso de compra, ofreció en segundos las tiendas más cercanas con la mercancía requerida, su disponibilidad y precio. A partir del requerimiento del usuario, ejecutó la compra y buscó complementos adecuados. Más de un centenar de compañías ha comenzado ya a aplicar esta herramienta, como la turística IHG para ofrecer planes vacacionales o Carrefour para generar campañas personalizadas o McDonalds para buscar elementos de mejora.

Hasta aquí, todo bien. Una herramienta capaz de aumentar la productividad de cualquier compañía o negocio, evitar costes y facilitar la vida del usuario. Pero estos robots bautizados como agentes tienen numerosas implicaciones éticas identificadas por una investigación de más de 200 páginas publicada tan solo 10 días después de la presentación:

¿Y si un agente se limita a ofrecer solo opciones de compra en empresas incluidas en el circuito de la IA y excluye a pequeños comercios?¿Y si prima soluciones solo de empresas que pagan por posicionarse y cobran hasta tres veces más por un servicio como pedir una nota simple de un inmueble o comprar una entrada que las páginas oficiales?¿Y si se adentran en el mundo de la política y orientan la intención de voto?¿Y si excluye de sus ventajas a aquellos sin acceso tecnológico o habilidades para usarlas?¿Y si ofrece terapias falsas para un problema de salud o incorpora información no contrastada o privada sin consentimiento? ¿Y si sigue las instrucciones del usuario cuando hacerlo podría dañarlo?¿Y si la identificación de preferencias del usuario que realiza el agente es errónea?

Problemas éticos

Las preguntas son innumerables. La extensa investigación universitaria y de la propia compañía que ha lanzado los agentes las agrupa e identifica siete áreas claves donde se generan las dudas éticas sobre este desarrollo:

Influencia. Los agentes son creativos, asistentes de búsqueda, consejeros, acompañantes e incluso asesores para decisiones que afectan a la vida. Por lo tanto, según los investigadores, esta inteligencia artificial avanzada, como ya han hecho los móviles o la irrupción de aplicaciones en línea para todo tipo de tareas, “podrían alterar radicalmente la naturaleza del trabajo, la educación y las actividades creativas, así como la forma en que nos comunicamos, coordinamos y negociamos entre nosotros, influyendo en última instancia en lo que queremos ser y llegar a ser”. Entre las formas de influir de los agentes se encuentran la persuasión racional, la manipulación, el engaño, la coerción y la explotación, considerada esta última cuando las circunstancias de la víctima o usuario se aprovechan para beneficiar injustamente al explotador.

Errores y accidentes. Cuanto más autónomos sean los sistemas, mayor será el potencial de usos indebidos y accidentes derivados de instrucciones mal especificadas o interpretadas. La teoría de los accidentes normales, desarrollada por Charles Perrow, de la Universidad de Princeton, sostiene que, “debido a la complejidad de los sistemas de nuestra sociedad, los fallos múltiples e inesperados son fundamentales y los accidentes son inevitables”.

Falsa humanización. Que cada vez sean más parecidos a los humanos es beneficioso en algunos aspectos, como la facilidad de interrelación con los agentes robóticos, pero este antropomorfismo abre cuestiones sobre “la confianza, la privacidad, las relaciones con la IA y los límites morales de la personalización”. La humanización puede crear falsas relaciones de confianza y vinculación emocional que condicionen al usuario.

Desigualdad y manipulación. Dada la utilidad potencial de los agentes, “es importante que la tecnología sea ampliamente accesible y se diseñe teniendo en cuenta las necesidades de los diferentes usuarios y no usuarios” para asegurar la distribución equitativa de los beneficios, advierte el documento. Además, el texto alerta del “impacto social significativo” generando problemas de acción colectiva u otras situaciones problemáticas. El documento identifica varías vías de manipulación que se resumen en tres: que el agente o el desarrollador de este manipule al usuario en función de los objetivos de los primeros o a partir de información falsa, que el usuario utilice al agente para generar una posición de dominio o que sea una entidad social quien manipule al usuario en aras de un supuesto interés colectivo.

Evaluación. Los actuales modelos se evalúan en función de su rendimiento, pero no se tienen en cuenta sus consecuencias como parte de sistema más amplio. En este sentido, se puede considerar la precisión de una respuesta a una demanda escolar, pero no su afectación al sistema educativo. “Se necesitan nuevas metodologías y conjuntos de evaluación centrados, en particular, en la interacción entre humanos e IA y sus efectos”, reclaman los investigadores.

Privacidad. El desarrollo de los agentes exige una normativa paralela sobre cómo se gestiona la información privada en la interacción con ellos o entre las mismas máquinas.

Participación. Los investigadores alertan del peligro de una proliferación de agentes sin contar con la participación de los usuarios y sus representantes para desarrollar las mejores prácticas en la industria o permitir el escrutinio público y la rendición de cuentas o promover recomendaciones de regulaciones sobre aspectos de interés general.

Los propios investigadores admiten que este documento “no anticipa ni puede anticipar todas las posibles implicaciones de las transiciones tecnológicas o sociales que permitirán los agentes” y reclaman el “seguimiento y la evaluación continua de la tecnología”.

Empleo

También advierte el documento sobre interrogantes que se generan en torno al empleo. ¿Qué ocupaciones esperamos que se vean directamente afectadas por estos asistentes? ¿En qué medida los empleados de estas ocupaciones pueden adaptar sus tareas o encontrar trabajos alternativos? ¿Pueden usar al asistente para aumentar sus competencias en las empresas?¿Hasta qué punto esperamos que surjan empresas completamente nuevas o nuevos procesos de producción y puestos de trabajo? ¿Habrá una preferencia a largo plazo por los humanos frente a la IA en estos sistemas de producción?

Carlo Villegas, director de Wehumans, una unidad del grupo Abai que ya crea estos nuevos asistentes tecnológicos, admite que estos nuevos desarrollos tendrán un efecto en el empleo —“Todo se puede automatizar”, asegura—, pero cree que será gradual: “Ya no es un tema de capacidad tecnológica sino de rentabilidad, de buscar esos casos de uso donde el agente realmente aporte, más allá de reemplazar a una persona. Sustituir empleos con una intensidad compleja no va a ser totalmente rentable porque las personas todavía pueden hacer más de una sola cosa y aportan una flexibilidad que la IA está lejos de adquirir. Además, todavía es demasiado caro sustituirlo. Ahora bien, cuando llegue, que llegará, será de forma lenta”.

Los campos de aplicación son diversos: “Tenemos muchos casos de uso y diferentes proyectos en los cuales desarrollamos e implementamos esos agentes”, afirma Villegas, aunque matiza que no hay una solución única y algunos proyectos no precisan de desarrollos tan sofisticados. No recurren a una sola plataforma para generarlos, sino que la eligen en función del proyecto y el cliente

Finanzas, educación, salud, ayuda asistencial y gestiones son algunos de los sectores donde están irrumpiendo estos nuevos agentes, cuyo coste varía entre los 30.000 y los más de 100.000 euros. “Depende del impacto, del alcance, si el sistema está pensado para ser consumido por 100 o por 1.000 personas. En función del objetivo y el proyecto vamos modulando todos los parámetros”, explica. En cualquier caso, se posiciona en el lado de los optimistas, entre quienes ven estos desarrollos como herramientas y no como una amenaza para los trabajos y las formas de vida.

Sobre las cuestiones éticas que plantean los agentes, el director de Wehumans es claro: “La responsabilidad va a ser de la empresa o del desarrollador de estas herramientas. Siempre tiene que haber un ojo humano monitorizando, arreglando o cambiando y es el máximo responsable. Tenemos que ser transparentes y asegurar que los usos son totalmente legítimos y sin errores”.

Puedes seguir a EL PAÍS Tecnología en Facebook y X o apuntarte aquí para recibir nuestra newsletter semanal.

Seguir leyendo

]]>
Google
<![CDATA[Una aurora boreal ilumina los cielos de España y podría volver a ser observable este fin de semana]]>https://elpais.com/ciencia/2024-05-11/una-aurora-boreal-ilumina-los-cielos-de-espana-y-podria-volver-a-ser-observable-este-fin-de-semana.htmlhttps://elpais.com/ciencia/2024-05-11/una-aurora-boreal-ilumina-los-cielos-de-espana-y-podria-volver-a-ser-observable-este-fin-de-semana.htmlSat, 11 May 2024 09:23:08 +0000Una aurora boreal, un fenómeno denominado electrometeoro y propio de regiones polares septentrionales, ha sido observada la pasada noche en gran parte de España. Las auroras son efectos luminosos que se generan en las capas superiores de la atmósfera y tienen forma de arcos, bandas o cortinas. Se forman por la interacción del viento solar y el campo magnético de la Tierra. No es la primera vez, aunque sí es poco habitual. La gran actividad solar que se registra durante estos días puede favorecer que vuelvan a ser observables este fin de semana en zonas meridionales.

La Agencia Estatal de Meteorología (Aemet) ha informado de observaciones de la aurora boreal en la costa Este española, desde Andalucía a Cataluña, así como en Aragón y Galicia, “en latitudes muy bajas”, ya que suele ser un fenómeno más común en los polos. El Observatorio de Torremocha del Jiloca, en Teruel, y el astronómico de Almería, también han informado del fenómeno: “De nuevo nos honra con su presencia una aurora boreal en Calar Alto”, ha publicado en X el centro almeriense.

La observación de la aurora en latitudes tan bajas ha sido favorecida por una gran tormenta geomagnética a una distancia entre 90 y 150 kilómetros de altitud, más allá de los límites de la trosposfera, donde se forman los fenómenos meteorológicos comunes. “El viento solar es más fuerte en momentos cercanos a la máxima actividad solar, que se produce en ciclos de entre 10 y 12 años”, ha explicado la Aemet. Ahora se está generando uno de estos ciclos, de acuerdo con las manchas solares observadas, que indican una gran actividad magnética, erupciones solares atmosféricas y eyecciones de masa coronal.

Esta gran actividad de la estrella de nuestro sistema emite partículas cargadas eléctricamente que se dirigen a la Tierra gracias al viento solar. Al acercarse a la termosfera y exoesfera (las capas superiores), los electrones y protones colisionan con los átomos de los gases, según explica la Organización Meteorológica Mundial. Esas colisiones provocan que los electrones de los átomos de nitrógeno y de oxígeno asciendan temporalmente a un estado energético superior, excitado, y vuelven a recuperar los niveles normales. En el proceso, se emiten fotones de luz con distintas longitudes de onda que conforman las auroras.

Los arcos más próximos a los polos magnéticos de la Tierra (óvalos aurorales) son los lugares más propicios para observar el fenómeno, pero la actual intensidad solar ha permitido que este óvalo se haya ensanchado temporalmente y que se haya percibido la aurora desde latitudes tan meridionales del hemisferio norte.

Auroras boleares vistas en La Palma, este sábado.

Condiciones geomagnéticas extremas

El hecho de que este fenómeno haya sido visto en latitudes tan al sur evidencia también que se están dando “condiciones geomagnéticas extremas”, según ha informado la Oficina Nacional de Administración Oceánica y Atmosférica de EE.UU. (NOAA, en inglés).

Además de generar auroras, estas tormentas geomagnéticas tienen potencial para perjudicar severamente al suministro energético y de electricidad en diferentes puntos de la Tierra. La NOAA ha emitido una alerta G5 (la máxima en un baremo de cinco puntos). Esta se establece cuando la tormenta puede causar problemas generalizados de control de tensión en la red eléctrica, dañar transformadores e incluso provocar apagones completos.

“Las tormentas geomagnéticas pueden afectar a la infraestructura en órbita cercana a la Tierra y en la superficie, interrumpiendo potencialmente las comunicaciones, la red de energía eléctrica, la navegación, la radio y las operaciones por satélite”, detalla la agencia.

La última vez que se produjo una tormenta geomagnética G5 “extrema” fue en octubre de 2003, cuando provocó cortes de electricidad en Suecia y dañó de transformadores en Sudáfrica.

Puedes seguir a MATERIA en Facebook, X e Instagram, o apuntarte aquí para recibir nuestra newsletter semanal.

Seguir leyendo

]]>
LORENA SOPENA
<![CDATA[Un grupo de investigadores desarrolla una fórmula para ejecutar computación cuántica con sistemas convencionales]]>https://elpais.com/tecnologia/2024-05-09/un-grupo-de-investigadores-desarrolla-una-formula-para-ejecutar-computacion-cuantica-con-sistemas-convencionales.htmlhttps://elpais.com/tecnologia/2024-05-09/un-grupo-de-investigadores-desarrolla-una-formula-para-ejecutar-computacion-cuantica-con-sistemas-convencionales.htmlThu, 09 May 2024 03:20:00 +0000Aún no se dispone de un ordenador cuántico funcional al 100%, aunque cada vez se está más cerca. Sin embargo, el potencial de la computación fundamentada en esta física, capaz de desentrañar la materia oscura microbiana (material genético de microorganismos aún por desvelar), descubrir nuevas moléculas medicinales, identificar cada ladrillo de un genoma u optimizar un complejo proceso financiero o industrial, urge el hallazgo de atajos. Investigadores de BBVA, que mantiene un equipo especializado en esta disciplina con participación pública y privada, han logrado una simulación cuántica distribuida con servidores clásicos y programación de código abierto, replicable por cualquier institución sin necesidad de un superordenador o un delicado computador basado en las características exóticas del mundo subatómico. Es decir, una forma de hacer computación cuántica con tecnología actual, disponible y al alcance de cualquiera.

El mundo físico que percibimos es un trampantojo, las sombras de la caverna de Platón llevadas al extremo. Si fuéramos capaces de jibarizarnos hasta un tamaño subatómico, percibiríamos una dimensión donde se puede estar en dos estados a la vez (superposición), hay teletransportación, se conduce la energía sin pérdidas (superconductividad), hay flujos sin fricción (superfluidez) y una extraña coreografía marca la interacción de las partículas (orden topológico).

Desentrañar todo ese universo permitiría responder a preguntas tan básicas como qué somos y de dónde venimos, pero también aprovechar sus características para aplicaciones prácticas como la computación cuántica, con capacidades imposibles de alcanzar por la informática clásica. Al ordenador que permita la ejecución de algoritmos cuánticos sin errores aún le queda una década, según las previsiones más optimistas. Sus principales desafíos son el ruido (una simple microonda o una alteración de la temperatura puede arruinar el proceso) y el tiempo de coherencia, los microsegundos durante los que se mantiene la superposición de estados que incrementa de forma exponencial la capacidad de computación.

Sin embargo, hay un atajo y es el hallazgo conseguido por los investigadores de BBVA. “Hemos conseguido hacer la simulación de la ejecución de algoritmos cuánticos usando máquinas clásicas, escalando hasta una potencia de cálculo total de 38 cúbits [bits cuánticos] y con el resultado esperado en un computador ideal cuántico”, resume Javier Recuenco, responsable del área de Innovación de Arquitectura Técnica de BBVA CIB.

“Al hacer simulación con computadores clásicos, hemos evitado el problema de tiempo de coherencia y el ruido. Ya puedo estar ejecutando horas y horas la simulación”, explica para añadir otro elemento fundamental: “El algoritmo va creciendo con el número de cúbits y necesito más potencia. Todo eso se tiene que distribuir en memoria y necesitamos mucha para que esto funcione. Usar un simulador cuántico distribuido se vuelve necesario”.

El nuevo sistema no aspira a superar las capacidades de un ordenador cuántico completamente tolerante a fallos, cuanto este sea una realidad, pero sí a aprovechar las ventajas de la computación cuántica con las herramientas disponibles ahora, a pesar de las limitaciones. “Tiene un coste muy alto”, admite Recuenco en referencia a los recursos empleados para la prueba de concepto, la demostración del método propuesto en la nube, que en esta ocasión ha sido posible con la participación de Amazon Web Service y la compañía de transformación tecnológica VASS. Se han quedado en 38 cúbits, pero creen que es escalable.

Una computadora clásica con 38 bits solo podría representar ese mismo número de estados diferentes. Sin embargo, la misma cantidad de cúbits puede representar y manipular simultáneamente 2³⁸ gracias a la propiedad de superposición, que permite a un cúbit estar en un estado 0, en un estado 1 o en cualquier combinación de ambos al mismo tiempo. Por lo tanto, una computación cuántica de 38 cúbits puede representar aproximadamente 274.000 millones de estados diferentes al mismo tiempo.

La simulación cuántica distribuida tiene una primera aplicación en optimización de carteras, en cálculo de riesgos y en hallar el camino más corto en grafos, un problema clásico que busca la vía óptima entre vértices o nodos. “Pero puede ser aplicable en cualquier ámbito. A las universidades les debe interesar mucho y a la industria química o farmacéutica. O para encontrar nuevos componentes de las baterías”, explica el investigador.

Una de sus grandes ventajas es que no precisa de un superordenador ni de un entramado de dispositivos cuánticos. Según explica Diego García Vaquero, director de arquitecturas y coinvestigador del sistema, comenzaron con dispositivos de solo ocho gigas de memoria RAM y llegaron a un máximo de un terabite. Basta con una red convencional ya existente en la nube. “Y con código abierto”, precisa. Esta premisa es básica para facilitar el uso de la simulación desarrollada, que se publicará en un documento técnico detallado para que sea replicable, según anuncian los investigadores.

Otra ventaja de la simulación conseguida es que, al no depender de sistemas inestables, se puede ejecutar por fases y establecer lo que Recuenco califica de “banderas o puntos intermedios de control” en el proceso para ver cómo progresa el algoritmo, así como entrelazar los cúbits sin las limitaciones topológicas que presentan los computadores cuánticos reales.

200 veces más veloz

Esta línea de investigación de la simulación cuántica la desarrollan compañías como Fujitsu, que complementa estos desarrollos con los mayores superordenadores del mundo y con computadores cuánticos. El pasado febrero, la compañía anunció el desarrollo de una novedosa técnica de simulación, también basada en la distribución, que acelera los algoritmos híbridos (cuántico-clásicos) y alcanza una velocidad de cálculo 200 veces superior a la de simulaciones anteriores.

En el caso de los cálculos de circuitos cuánticos mediante algoritmos híbridos, los problemas a mayor escala requieren muchos cúbits y días de procesamiento. Las simulaciones en los campos de los materiales y el descubrimiento de fármacos pueden requerir incluso varios cientos de días.

La tecnología de Fujitsu permite procesar simultáneamente un gran número de cálculos de circuitos cuánticos ejecutados repetidamente y distribuidos entre varios grupos. Fujitsu también ha ideado una forma de simplificar problemas a gran escala con menor pérdida de precisión utilizando uno de los simuladores cuánticos. En un solo día se ejecutan cálculos que con los métodos convencionales tardarían más de medio año. Fujitsu cree que estos modelos aceleran la investigación sobre la aplicación práctica en diversos campos y en ordenadores cuánticos reales.

Puedes seguir a EL PAÍS Tecnología en Facebook y X o apuntarte aquí para recibir nuestra newsletter semanal.

Seguir leyendo

]]>
BBVA
<![CDATA[Hasta el 50% del agua se pierde o malgasta. La solución es tecnológica]]>https://elpais.com/tecnologia/2024-05-04/hasta-el-50-del-agua-se-pierde-o-malgasta-la-solucion-es-tecnologica.htmlhttps://elpais.com/tecnologia/2024-05-04/hasta-el-50-del-agua-se-pierde-o-malgasta-la-solucion-es-tecnologica.htmlSat, 04 May 2024 03:20:00 +0000La solución a la escasez de agua pasa, principalmente, por recuperar el régimen de lluvias con la reversión, hasta ahora infructuosa, del cambio climático; reducir el consumo, algo que las previsiones no contemplan; y optimizar la gestión de los usos para evitar que se pierda entre el 20% y el 50% de los recursos existentes. En el último frente, la tecnología es una herramienta fundamental. Investigadores de todos los ámbitos desarrollan soluciones para evitar malgastar un bien sin el que la vida es imposible.

Carmen Flores Cayuela es investigadora del grupo Hidráulica y Riegos de la Universidad de Córdoba y forma parte de Tic4bio, una plataforma digital financiada con fondos europeos y de la Junta de Andalucía para optimizar el uso del agua y mejorar la biodiversidad en el campo, donde se consume el 80% de los recursos hídricos. Cualquier porcentaje de mejora en este ámbito es fundamental por su extraordinario peso en el consumo global. “Se puede ahorrar hasta un 20% y, además, se gana en eficacia porque se aprovecha el 100% de la que se use”, asegura la investigadora en la finca sevillana Cortijo El Puerto, donde han instalado su red de sensores.

Este entramado de receptores a distintas profundidades actúa a modo de terminaciones nerviosas de la epidermis de la tierra. Se ha instalado uno por cada 10 hectáreas (24 en total) y su coste por unidad ronda los 1.000 euros. “Nos dicen la disponibilidad de agua, la humedad y la recomendación de riego”, explica Flores mientras muestra la aplicación móvil, desarrollada por Dacartec donde se reflejan los resultados de los datos recopilados. Además, a partir de información cargada manualmente y con ayuda de un buscador por imágenes, calcula los índices básicos de biodiversidad para prever plagas y combatirlas de forma ecológica.

Un grupo de la Diputación de Sevilla, en la línea de lavado de la almazara de Cortijo El Puerto, donde un sensor monitoriza el caudal de agua.

La industria es el siguiente gran consumidor de agua. Enrique de la Torre Liébana, es consejero delegado de Ingeoliva, la empresa familiar propietaria de la finca y productora de aceite ecológico. Su dimensionada almazara reproduce el esquema aplicado en el campo: un sensor por cada proceso crítico. Monitorizan el caudal por segundo utilizado para el lavado del fruto, para el tratamiento del zumo y para la limpieza de todas las instalaciones. Lleva dos años en el proyecto, en el que participa la asociación profesional española de la producción ecológica Ecovalia, con el fin de determinar la huella del agua, el volumen necesario para producir.

“El objetivo es no solo conocer el recurso necesario por cada proceso sino también identificar los puntos de mejora para llegar al mínimo posible”, explica De la Torre, quien asegura que la inversión merece la pena. “No es cuestión de rentabilidad sino de satisfacción personal, de compromiso con el medio ambiente. Eso no tiene precio”, afirma tras reconocer que el rendimiento en este tipo de explotaciones es menor que en las intensivas. “Eso repercute en el precio, pero el consumidor, si está formado, está dispuesto a pagar un poco más”, asegura. El ahorro de agua que esperan alcanzar es del 50%.

Luis Babiano, gerente de la asociación de operadores públicos de agua Aeopas, defiende la importancia de todos los frentes, en especial en España, “donde los recursos disponibles son insuficientes y los que hay han sido explotados hasta su extenuación”. “Priorizar su gestión eficaz es imprescindible”, añade.

En esta partida donde el triunfo es el agua se incluye el tercer gran consumidor: el núcleo urbano. “En algunas de nuestras grandes ciudades se pierde por fugas más del 20% del agua distribuida por la red y en algunas zonas rurales se llega al 50%”, afirma Babiano. “Tampoco es aceptable que, en la costa, donde la actividad turística acelera la demanda, no se reutilice toda el agua depurada”, añade como ejemplo para aplicar la tecnología en la gestión del agua.

Babiano defiende la digitalización de los procesos de distribución. “Es paradójico que con la tecnología existente no tengamos la información completa sobre el ciclo del agua, las pérdidas por fugas, roturas o filtraciones o que el consumidor no sepa lo que gasta a diario”, comenta.

Ramón Gonzáles Carvajal es catedrático de Ingeniería Eléctrica de la Universidad de Sevilla y ha participado en la elaboración la Guía para la digitalización de los usos del agua, un recurso gratuito promovido por Aeopas y Premio de Investigación del Consejo Económico y Social de Andalucía.

Un operario de Emasesa instala un contador digital con telelectura.

Asegura que en abastecimiento urbano se sabe “más o menos” dónde se pierde el agua, aunque admite que la situación es desigual: “Hay muchísimos municipios que no saben dónde están las tuberías, que nunca han levantado un plano de las mismas y no saben la antigüedad de la red”. “El problema”, añade, “es que arreglarlo es muy difícil porque implica una inversión gigantesca. La teoría dice que se debería renovar el 2% de las redes al año”.

En el campo, donde más se gasta, la situación empeora. “Unas tuberías de regadío pueden tener todas las pérdidas y no se sabe porque nadie te factura el agua que se vierte. Se sabe lo que se capta, pero no se sabe lo que se pierde porque no hay un instrumento de medida. Aunque hay comunidades de regantes tremendamente tecnificadas, no son la mayoría”, explica el ingeniero.

Otros usos

La tecnología no es solo una vía de ahorro para operadores y usuarios, que pueden seguir el consumo diario y detectar fallos en la red o distinguir entre fuga y fraude. También puede servir como indicador predictivo de demanda para tomar decisiones o promover campañas de ahorro e incluso ser un salvavidas. Ya existen, según explica González Carvajal, cámaras multiespectrales que procesan el espectro de la luz en el agua y sirven para predecir cuándo el suministro se volverá inadecuado para consumo. Y también pueden servir para que los servicios sociales puedan tener monitorizado, bajo su consentimiento, a los colectivos vulnerables.

Los contadores disponen, por un coste de unos 150 euros, de la tecnología suficiente para garantizar una vida útil de 12 años con suministro de información en tiempo real de todo el ciclo del agua. El coste mensual sería de poco más de un euro. La Guía para la digitalización facilita la elección, compra y manejo de esa tecnología y los datos que aporta.

Para grandes empresas, la inversión es rentable. En la empresa de abastecimiento de Sevilla Emasesa ha llegado a registrar solo pérdidas técnicas, aquellas que son inevitables en una red que abastece a un millón de usuarios. Sin embargo, para pequeños municipios, resulta un desafío que implicaría subidas de las tarifas impopulares o la concesión del servicio, pero ni siquiera las compañías privadas quiere asumirlo por la insuficiente o nula expectativa de beneficio. “La única manera de que esta nueva ola de modernización llegue a estos municipios es ofrecerle incentivos y que estén unidos a una escala suficiente como para que puedan tener tecnólogos y técnicos que gestionen la red de forma descentralizada”, explica el catedrático de la Escuela de Ingeniería de Sevilla.

“El agua es un bien preciado y la única manera de gestionarla mejor es teniendo más información. Si tenemos agua para cuatro años y conseguimos con la digitalización ahorrar un 20%, al final tendremos agua para 5 años”, resume González Carvajal.

Puedes seguir a EL PAÍS Tecnología en Facebook y X o apuntarte aquí para recibir nuestra newsletter semanal.

Seguir leyendo

]]>
Raúl Limón Gallardo
<![CDATA[La NASA restablece las comunicaciones con la ‘Voyager 2’, que se encuentra a 19.900 millones de kilómetros de la Tierra]]>https://elpais.com/ciencia/2023-08-05/la-nasa-reestablece-las-comunicaciones-con-la-voyager-2-que-se-encuentra-a-199-millones-de-kilometros-de-la-tierra.htmlhttps://elpais.com/ciencia/2023-08-05/la-nasa-reestablece-las-comunicaciones-con-la-voyager-2-que-se-encuentra-a-199-millones-de-kilometros-de-la-tierra.htmlSat, 05 Aug 2023 08:34:50 +0000La Agencia Espacial de Estados Unidos (NASA) ha informado de la recuperación completa de las comunicaciones con la sonda Voyager 2, la única nave que ha alcanzado el espacio interestelar y visitado Urano y Neptuno. El contacto se perdió el pasado día 21, cuando una serie de comandos enviados causaron una desviación de dos grados en la antena.

El contacto con la Voyager 2, que se encuentra a 19.900 millones de kilómetros de la Tierra, se interrumpió tras el incidente y la Red de Espacio Profundo (DSN por sus siglas en inglés) de la NASA no pudo recibir datos ni enviar comandos de los controladores de tierra a la nave.

El pasado martes, la DSN pudo detectar una señal muy débil que permitía confirmar que la Voyager 2 seguía operando y mantenía la trayectoria. A partir de esta señal, las instalaciones australianas de Camberra han mantenido los intentos de mandar órdenes de reorientación de la antena a la veterana sonda, lanzada el 20 de agosto de 1977 desde Cabo Cañaveral.

La distancia de la sonda obliga a que las operaciones se demoren más de un día entre el envío de la instrucción, que emplea 18,5 horas en llegar, y la confirmación de la recepción y funcionamiento del comando, que tarda otro tanto. Finalmente, los intentos han sido exitosos y la comunicación se ha restablecido.

La principal instrumentación de la nave son sus elementos ópticos, situados en una plataforma de exploración que sobresale unos 2,5 metros de la estructura central de la sonda. Cuenta con cámaras (gran angular y teleobjetivo), espectrómetro de rayos ultravioleta e infrarrojos, radiómetro y detector de luz (fotopolarímetro).

El complejo de comunicaciones de la Red de Espacio Profundo se encuentra distribuido, principalmente, en España (concretamente en Madrid), Estados Unidos y Australia porque, aproximadamente, las localizaciones están separadas 120 grados en longitud, lo que permite a las misiones espaciales que se hallan a más de 30.000 kilómetros de distancia de nuestro planeta estar siempre vigiladas y observadas por al menos una de las estaciones. Actualmente tiene 10 estaciones en siete países.

No es la primera vez que este complejo recupera comunicaciones perdidas. En agosto de 2016, la NASA restableció el contacto con la nave espacial STEREO-B tras haber perdido la conexión con la sonda el 1 de octubre de 2014.

Puedes seguir a MATERIA en Facebook, Twitter e Instagram, o apuntarte aquí para recibir nuestra newsletter semanal.

Seguir leyendo

]]>
NASA/JPL-Caltech
<![CDATA[Luis Buezo, responsable de inteligencia artificial en HPE: “Creemos en una IA potente, confiable y, sobre todo, abierta y accesible”]]>https://elpais.com/tecnologia/2024-04-22/luis-buezo-responsable-de-inteligencia-artificial-en-hpe-creemos-en-una-ia-potente-confiable-y-sobre-todo-abierta-y-accesible.htmlhttps://elpais.com/tecnologia/2024-04-22/luis-buezo-responsable-de-inteligencia-artificial-en-hpe-creemos-en-una-ia-potente-confiable-y-sobre-todo-abierta-y-accesible.htmlMon, 22 Apr 2024 03:20:00 +0000Luis Buezo, nacido en Irun (Gipuzkoa) hace 54 años, pero residente en Madrid casi toda su vida, es responsable mundial de inteligencia artificial en Hewlett Packard Enterprise (HPE), una compañía de 60.000 empleados que cuenta en su haber con el ordenador considerado como el más rápido del mundo: el Frontier, una máquina de 1.194 exaflops de rendimiento y calificada como uno de los mejores desarrollos del pasado año. En Finlandia disponen de LUMI, el mayor de Europa (380 petaflops) y el quinto del mundo. Este hermano tres veces menor que el Frontier tiene un poder de computación equivalente al de 1,5 millones de portátiles de última generación actuando a la vez y que, apilados, formarían una torre de 23 kilómetros de altura.

Esta apuesta por la supercomputación es clave para la inteligencia artificial (IA) que, en sus modelos más complejos, precisa de billones de parámetros. Pero Buezo cree que, aunque es necesaria esta carrera, hay alternativas para cualquier escenario y que el desarrollo de la IA es sólido y con beneficios incalculables en todos los niveles.

Pregunta. ¿Hay riesgo de burbuja en la inteligencia artificial?

Respuesta. Estamos en uno de los momentos más disruptivos de nuestras vidas, comparable al surgimiento de internet, que ya hemos visto lo que ha generado y de lo que somos capaces de hacer gracias a la conectividad. Estamos en un punto de inflexión en el que todas las empresas y organizaciones están evaluando cómo aplicar la inteligencia artificial para mejorar sus procesos internos y de negocio, la calidad y la productividad. Creemos en una IA potente, confiable y, sobre todo, abierta y accesible a todo tipo de organizaciones. Si internet hubiera sido solamente aprovechado por un grupo muy específico de organizaciones, no sería lo que es.

P. Pero los mayores desarrollos de IA están en manos privadas que querrán su beneficio, el retorno de las inversiones.

R. Nosotros defendemos una arquitectura abierta que permita la colaboración entre diferentes organizaciones. Eso es muy importante. Hace unas semanas anunciamos desarrollos de diseño conjunto de arquitectura de software [programación] con Nvidia. También trabajamos muchísimo el catálogo de open source [código abierto], no solo con modelos comerciales. Lo hacemos con ambas alternativas porque tenemos escenarios por cada cliente en los que usan unas y otras. Nosotros aplicamos nuestros principios éticos de respeto a la privacidad y a los derechos humanos, que haya siempre supervisión personal y que sea inclusiva para minimizar cualquier tipo de sesgo. También tiene que ser explicable, controlable y robusta, con seguridad desde dentro y protegida ante cualquier tipo de ataque, mala utilización o potenciales fallos.

P. ¿La existencia de inteligencia artificial disponible para organizaciones que no respeten esos derechos supone un riesgo?

R. Los clientes demandan los principios éticos y legales en los desarrollos. Sale en las primeras conversaciones. Aquellas empresas o entidades que recurran a código abierto y se salten a la torera todas estas normas será su responsabilidad. Pero cada vez más hay una sensibilización mayor para un uso responsable.

P. La IA ha entrado de lleno en ámbitos como el farmacéutico o el industrial. Pero hay otros, como la justicia, donde es más difícil de ver. Usted participó en un seminario sobre este campo. ¿Habrá algún día juicios automáticos, ordenadores con toga?

R. El encuentro fue en La Haya [Países Bajos] y empezamos a plantear casos de uso. Veo ventajas muy relevantes en la justicia como ayuda a la toma de decisiones y en diferentes procesos. Aquí es muy importante la supervisión humana. No es cambiar completamente un proceso, sino ayudar a la toma de decisiones y a tratar información. Hay modelos de IA generativa en los que puedes introducir toda esta información y te puede ayudar a hacer resúmenes, a hacer preguntas específicas y revisar de dónde viene esta información o una conclusión. Hoy en día puede ayudar muchísimo a acelerar procesos y dejar a los profesionales que dediquen más tiempo de calidad a lo más importante.

P. ¿En qué campos se va a desarrollar más la IA?

R. En todos. Se aplica a todo tipo de actividad en cualquier sector, desde la administración pública hasta la empresa privada. Disponer de información fiable mucho más rápidamente y que sea concreta y precisa se aplica a todo tipo de sectores. En el industrial hay muchísimo para control de calidad o para automatizar factorías. Las entidades financieras están muy avanzadas en aplicaciones de técnicas analíticas y para el control del fraude. Pero también tenemos ejemplos de uso en e-sports [deportes electrónicos] o en competiciones de motor. Trabajamos con el equipo de Maserati para mejorar la competitividad.

P. ¿Qué hay que hacer para evitar aplicaciones de IA deficientes?

R. Nosotros trabajamos en un ciclo de aproximaciones sucesivas que empieza por manejar expectativas: lo que se puede hacer y no con IA o con analítica avanzada. Esto es muy importante, es entender y acordar los casos de uso más factibles con resultados concretos a corto medio plazo. El segundo elemento es ver los datos que están disponibles y si, con esos datos, se puede llegar al retorno de inversión que el cliente espera. Si no son válidos, buscamos otras maneras de conseguirlo. En la fase de prueba de valor verificamos que la tecnología vale, que el caso de uso concreto que estamos evaluando realmente va a producir el retorno de inversión del cliente. Lo hacemos en un entorno de laboratorio y podemos ir mejorándolo. Buscamos modelos en los que el rendimiento esté por encima del 90%. Luego está el reto de llevarlo a producción, integrarlo con las aplicaciones existentes y probarlo.

P. Un gran modelo de lenguaje necesita billones de parámetros. ¿Ha llegado la era de la supercomputación para manejarlos?

R. Tenemos varias alternativas. Tenemos supercomputación con la que puedes hacer entrenamiento y desarrollo de grandes modelos de lenguaje, pero también tenemos otra arquitectura para empresas que quieren hacer un modelo más ligero. Es muy importante entender cuál es el caso de uso, cuál es la necesidad.

P. ¿La IA es sostenible?

R. En el Centro Global de Excelencia en Inteligencia Artificial y Datos de Madrid hemos puesto el foco en la sostenibilidad utilizando software de Intel para optimizar el modelo en términos de velocidad y consumo energético. Hemos logrado acelerar hasta 14 veces la velocidad de procesamiento de imágenes y hemos reducido hasta 17 veces el nivel de energía consumida por el algoritmo, que al final se traduce en reducción de emisiones asociadas. Es un tema importante que también nos lo demandan clientes. Es muy importante siempre no solo buscar el rendimiento, sino además que el modelo sea óptimo en cuanto a consumo y sostenibilidad.

Puedes seguir a EL PAÍS Tecnología en Facebook y X o apuntarte aquí para recibir nuestra newsletter semanal.

Seguir leyendo

]]>
HPE
<![CDATA[Gafas con funciones de un móvil, ‘Photoshop’ instantáneo y otros inminentes avances gracias a los nuevos chips]]>https://elpais.com/tecnologia/2022-11-25/gafas-con-funciones-de-un-movil-photoshop-instantaneo-y-otros-inminentes-avances-gracias-a-los-nuevos-chips.htmlhttps://elpais.com/tecnologia/2022-11-25/gafas-con-funciones-de-un-movil-photoshop-instantaneo-y-otros-inminentes-avances-gracias-a-los-nuevos-chips.htmlFri, 25 Nov 2022 04:20:00 +0000Los chips (semiconductores) son a la computación lo que las neuronas al cuerpo humano: unidades funcionales básicas del sistema cuya labor principal es recibir, procesar y transmitir información. De su desarrollo depende que las aplicaciones puedan ser cada vez más sofisticadas o que los dispositivos asociados funcionen y se comuniquen o que se pueda gestionar la inteligencia artificial que acerca la máquina al cerebro humano o digerir la cada vez mayor cantidad de datos almacenados o recibir y reproducir imágenes y sonidos de forma realista y más definida. Cada avance en estos circuitos integrados impulsa al resto de la industria a desarrollar nuevas capacidades para móviles, automóviles, electrodomésticos, ordenadores y cualquier tipo de maquinaria.

La multinacional Qualcomm ha presentado este noviembre (en un evento al que ha sido invitado EL PAÍS y más medios internacionales) su última generación de chips, Snapdragon 8 Gen 2, diseñados para procesar con inteligencia artificial, multiplicar por cuatro el rendimiento y reducir hasta en un 60% el consumo energético. Son las tres líneas básicas que siguen también otras empresas como Intel, Samsung, Taiwán Semiconductor Manufacturing (TSMC) o Apple, que en junio se lanzó a desarrollar su propia familia de chips (M2) para el Mac con el fin de dejar de depender de terceros. Estas son algunos de los desarrollos que permiten los nuevos avances de Qualcomm:

El procesador. “El móvil ha cambiado nuestras vidas. Es todo lo que hacemos y lleva la tecnología a cualquier lugar”, afirma el presidente de Qualcomm, Cristiano Amon, quien cree que el próximo lustro está orientado la convergencia tecnológica, a dotar de las tecnologías del móvil al resto de dispositivos y al teléfono inteligente de las ventajas de ordenadores y consolas. Para ello se ha desarrollado la plataforma Snapdragon 8 Gen 2, que compañías como Samsung, Honor, OnePlus, Sony, Xiaomi o Motorola incorporarán en sus dispositivos de alta gama a partir del próximo año. Sus fundamentos son un procesador de cuatro nanómetros (más eficiente y capaz); un núcleo principal con una frecuencia máxima de 3,2 GHz, tres de 2,8 y cuatro de 2; y habilitación para redes 5G, descargas de 10 Gigabits por segundo y rendimiento máximo con wifi 7, la última tecnología de conexión inalámbrica. Chris Patrick, vicepresidente de la compañía, asegura que “ofrece una inteligencia artificial innovadora, conectividad incomparable y capacidad profesional para juegos porque los usuarios cada vez demandan más y más”.

Las gafas que aspiran a desbancar al reloj. “Serán el próximo dispositivo para llevar puesto”, afirma tajante Amon. Se trata de gafas de aspecto convencional (nada de cascos aislantes del entorno) que llevarán a unos milímetros de los ojos todas las aplicaciones del móvil. En una porción de los cristales se reflejarán las indicaciones para llegar a un sitio, una videollamada, los últimos mensajes, la información asociada a aquello que vemos, una película o nuestro mundo en el metaverso. Amon cree que empezarán a estar disponibles en los próximos “cinco o diez años”. “Desde un punto de vista tecnológico es absolutamente factible. Es solo cuestión de tiempo y serán unas compañeras inseparables”, asegura.

Distribución de componentes en unas gafas inteligentes a partir de los desarrollos de Qualcomm.

La base para este futuro próximo es la Snapdragon AR2 Gen 1, una arquitectura multichip compuesta por un procesador de realidad aumentada en una patilla, un coprocesador de realidad aumentada situado en la parte central de la montura y una plataforma de conexión alojada en la otra patilla que emplea FastConnect 7800. Esta nueva distribución de elementos permite utilizar hasta nueve cámaras, aumentar 2,5 veces el rendimiento de la inteligencia artificial, reducir el consumo energético un 50% y, lo más importante, ajustar todo el dispositivo en unas gafas de tamaño y aspecto convencionales.

Lenguaje. El motor de inteligencia artificial también ha permitido el desarrollo de Snapdragon Smart, un sistema de procesamiento del lenguaje natural que facilita la traducción simultánea a varios idiomas, o el Sensing Hub, que permite la incorporación de parámetros cada vez más complejos a los comandos para asistentes de voz. La orden “busca un restaurante o un hotel cerca de aquí” pasa a “localiza un local con comida china con un precio inferior a 20 euros a menos de 10 minutos” o “un hotel de cuatro estrellas con gimnasio, servicio de guardería y cerca de la playa que cueste menos de 200 euros la noche.

Un Photoshop instantáneo. Govind Balakrishnan, vicepresidente de Adobe, cree que el “diseño de contenidos debe ser para todos porque todo el mundo es creador”. Adobe participa con Qualcomm en el desarrollo de Snapdragon Sight, una plataforma que pretende llevar la experiencia de la fotografía profesional a las cámaras del móvil. De esta forma, el desarrollo permite la “segmentación semántica” en tiempo real de fotos y vídeos. Esta mejora, al igual que el popular programa Photoshop, identifica las diferentes capas de una imagen, como caras, rasgos, pelo, ropa, cielo o fondo, para optimizarlas aplicando inteligencia artificial en el mismo momento en que se toma la imagen. “La cámara es consciente de lo que ve”, explica Judd Heape, vicepresidente y director de productos de la compañía.

Judd Heape en la presentación del sistema de segmentación semántica de las imágenes creado por Qualcomm.

Empresas como Sony o Samsung también aplican la plataforma de Qualcomm a sus sensores de imágenes para conseguir tomas de hasta 200 megapíxeles y vídeos de alta definición en los últimos protocolos de resolución (8k).

El juego. Una ejecución más rápida (25%), más realismo y menor consumo (40%) son las claves de Snapdragon Elite Gaming, el desarrollo basado en la nueva plataforma de procesamiento que permite personajes y un tratamiento de la luz (Ray tracing) realistas para jugar en el móvil sin comprometer el rendimiento de la batería. La desarrolladora de juegos Niantic ya ha anunciado que incorporará esta tecnología.

Videojuego en un teléfono móvil con la aplicación de la tecnología Snapdragon 8 Gen 2.

Conexión. La nueva plataforma de procesamiento nace ya vinculada al 5G (conectividad móvil) y a la última generación de conexión inalámbrica (Wifi 7) gracias a módem X70 para ganar en velocidad, capacidad, cobertura, latencia y eficiencia energética. También duplica el alcance de conexión por bluetooth y permite el uso simultáneo de dos tarjetas SIM a partir del DSDA (Dual-SIM Dual-Active).

Sonido. Es otra de las apuestas de los nuevos desarrollos: mejorar la experiencia en aplicaciones de música, llamadas, vídeos y juegos. No solo se gana en nitidez y en capacidad inmersiva, sino que la inteligencia artificial permite también discriminar y anular, por ejemplo, toda fuente de ruido ajena a los interlocutores durante una conversación.

Ordenadores. La convergencia tecnológica no solo supone avances para los teléfonos inteligentes. El objetivo es llevar la tecnología móvil a todos los dispositivos, especialmente a los portátiles, y maquinarias, como el automóvil. “Nuestra visión es llevar lo mejor del teléfono inteligente al portátil con mejoras en programación, hardware [elementos físicos o materiales], conectividad y capacidad de procesamiento”, explica Kedar Kondap, vicepresidente de computación y juego.

En este sentido, la colaboración Qualcomm y Microsoft permitirá la incorporación de los sistemas de aceleración de inteligencia artificial a los usuarios de Windows 11 no solo para mejorar las aplicaciones de imagen y sonido (Windows Studio Effects Voice Focus y Background Blur) sino, sobre todo, para aprovechar los avances en inteligencia artificial con el fin de mejorar los rendimientos y la eficiencia energética de las CPU (unidades centrales de procesamiento) y las GPU (unidades de procesamiento gráfico).

Puedes escribirnos a rlimon@elpais.es, seguir a EL PAÍS TECNOLOGÍA en Facebook y Twitter y apuntarte aquí para recibir nuestra newsletter semanal

Seguir leyendo

]]>
Qualcomm
<![CDATA[Bobby Ford, vicepresidente de HPE: “En lugar de salir a buscar talento, lo encuentro en mi organización”]]>https://elpais.com/tecnologia/2024-04-15/bobby-ford-vicepresidente-de-hp-en-lugar-de-salir-a-buscar-talento-lo-encuentro-en-mi-organizacion.htmlhttps://elpais.com/tecnologia/2024-04-15/bobby-ford-vicepresidente-de-hp-en-lugar-de-salir-a-buscar-talento-lo-encuentro-en-mi-organizacion.htmlMon, 15 Apr 2024 03:20:00 +0000No abundan, pero tampoco es difícil encontrar en la alta dirección de empresas tecnológicas a personas formadas en la filosofía. Sergio Boixo, físico de Google Quantum, pasó por las aulas de esta disciplina antes de convertirse en un referente del mundo cuántico. A Bobby Ford, vicepresidente de Hewlett Packard Enterprise (HPE) y que también estudió el sentido del obrar humano, aún le debe resonar lo aprendido del principio kantiano que considera a la persona un fin y no un simple medio. Y le sirve para afrontar la mundial falta de profesionales en el ámbito tecnológico y afirmar: “No creo que tengamos una escasez de talento, creo que tenemos una escasez de experiencia. Si esta es mi filosofía, en lugar de salir a buscar talento, lo que hago es encontrarlo dentro de mi organización, crear opciones para brindar a las personas de orígenes diversos y diferentes la oportunidad de obtener más experiencia”.

El problema al que alude Ford, durante su participación en CPX Viena, es general. El 78% de las empresas españolas afirma tener dificultades para encontrar talento e incorporar los perfiles que buscan. Las causas se encuentran en la conjunción del rápido crecimiento de la industria tecnológica y la insuficiente formación en este ámbito durante las etapas previas al mundo laboral. Este mercado, ya tensionado, ha terminado de romperse con la irrupción de la inteligencia artificial.

Según el director de Economía de la Fundación Cotec, que ha presentado un mapa del empleo en este sector a partir de las estadísticas de la Seguridad Social, “las ramas más tecnológicas crecen en empleo a mayor velocidad que el resto y, en la última década, acumulan un aumento del 48% en su volumen de afiliados frente al 27% observado en el conjunto de la economía”.

De acuerdo con los datos de la Seguridad Social utilizados por Cotec, el 7,7% de los afiliados en España trabajan en empleos intensivos en tecnología, una proporción lejana aún de la media europea (10,7%) e insuficiente en un sector que representa el 20% del PIB nacional.

Juan Luis Moreno, director de innovación de la escuela de negocios The Valley, apuesta por “crear, mantener y atraer talento”. En este sentido, Moreno aboga por profesionales “capaces de adaptarse a los cambios” y empresas que “inviertan en planes de formación que garanticen una correcta gestión del talento interno, de forma que se consiga tener trabajadores potenciados y no reemplazados”.

Al contrario que Moreno, Bobby Ford no se encuentra en el ámbito de la formación (es el máximo responsable de seguridad en HP), por lo que no se le presupone interés comercial en ella. Sin embargo, coincide con el directivo español: “Podemos educar, enseñar y capacitar a las personas para crear más talento del que realmente tomamos. Somos agresivos a la hora de ser creadores de talento y no tomadores de talento”.

Sin embargo, para muchas pequeñas y medianas empresas, esta solución no es válida. Daniel Gregg, fundador de una empresa familiar especializada en programas para la gestión de centros sanitarios, lamenta: “Yo formo a mis trabajadores y viene una empresa con más capacidad económica y me los roba a base de talonario”.

Ford admite que el salario se ha convertido en un arma de la batalla por el talento tecnológico. “La inflación salarial es algo real. Con eso en mente, estoy buscando cómo podemos identificar soluciones”.

Esa “inflación salarial”, que ya distorsiona el mercado, es más grave entre hombres y mujeres. Según el último Informe sobre Empleabilidad y Talento Digital de las fundaciones VASS y Universidad Autónoma de Madrid, las trabajadoras tecnológicas cobran un 7,5% menos que sus compañeros. Unido a otros factores, como la falta de una carrera profesional definida o de mentores, ha supuesto que las mujeres solo representen el 23,47% del sector. Aumentar la participación femenina en itinerarios formativos tecnológicos y reducir la persistente brecha salarial pueden aportar una solución a la escasez de personal preparado.

“Pese a que ha habido avances notables en los últimos años, contar solo con un 23% de mujeres en perfiles TIC es claramente insuficiente para alcanzar una paridad efectiva en el sector, algo indispensable si se pretende aprovechar la gran oportunidad que supone el nuevo paradigma de la transformación digital”, afirma Antonio Rueda, director de la fundación VASS. Y añade: “Fundamentalmente, nos enfrentamos dos retos; por un lado, que la mujer considere este sector como un buen cobijo dentro del nuevo mapa de ocupaciones, en continua transformación; y por otro, que se lleven a cabo dentro del sector cambios estructurales y motivacionales en las organizaciones que permitan evitar su estancamiento profesional”.

Adela de Toledo, directora de la tecnológica Pure Storage Iberia, resume la situación: “Cualquier empresa que se embarque en un viaje de transformación digital, por ejemplo, desplegando IA en toda su organización, se va a encontrar con escasez de habilidades. Sencillamente, no hay suficientes científicos de datos u otros profesionales con las habilidades pertinentes disponibles para hacer frente a la demanda y los que tienen las habilidades adecuadas son difíciles de conseguir y exigen salarios elevados. Es probable que esto siga siendo un problema importante durante los próximos cinco o diez años”.

La solución para De Toledo coincide con la del resto de expertos: “Las organizaciones no sólo tendrán que invertir fuertemente en talento a través de la contratación, sino también invertir en la formación de su mano de obra existente para desarrollar más habilidades internamente. Si no lo hacen, no harán más que ampliar la brecha de competencias en las organizaciones modernas”.

La directiva entiende que la formación debe ser “accesible a todos los empleados, incluidas las mujeres”. Y también apuesta por promover referentes femeninos para atraer a las trabajadoras a este campo y “desafiar estereotipos arraigados”, así como “abordar cuestiones como la conciliación de la vida laboral y familiar y ofrecer oportunidades de desarrollo profesional”.

Maya Horowitz iba para psicóloga hasta que se le cruzó en el camino el servicio militar, obligatorio en Israel, su país de origen. Allí conoció y le formaron en el mundo de la defensa informática y hoy es vicepresidenta de investigación en la empresa internacional de ciberseguridad Check Point Software Technologies. “Cambió mi vida y entendí que la tecnología también es para mí. Hay mucho que aprender y se trata de educación, para que las niñas puedan desarrollar las habilidades, y mostrarles que hay mujeres en este sector, que hay impulso”.

Francisco Criado, compañero de Horowitz en una de las vicepresidencias de la misma compañía, comparte la idea de “reposicionar el talento y enseñar a la gente”. Cree que el mundo tecnológico está cambiando y que la inteligencia artificial permite reubicar dentro de una organización a perfiles que no eran tan técnicos al asumir la máquina labores que antes exigían reglas muy complejas. “No obstante, no creo que sea una solución rápida”, admite. “Todavía vamos a sufrir una escasez de habilidades durante mucho tiempo y veremos a dónde nos lleva la IA generativa, que no lo va a solucionar por completo, pero, en algunos casos, puede que reduzca la necesidad de personas en ciertas tareas. Puede que cierre la brecha en el futuro”.

Puedes seguir a EL PAÍS Tecnología en Facebook y X o apuntarte aquí para recibir nuestra newsletter semanal.

Seguir leyendo

]]>
<![CDATA[Figure 01, el robot más cercano al humanoide que la ciencia ficción anticipó]]>https://elpais.com/tecnologia/2024-04-12/figure-01-el-robot-mas-cercano-al-humanoide-que-la-ciencia-ficcion-anticipo.htmlhttps://elpais.com/tecnologia/2024-04-12/figure-01-el-robot-mas-cercano-al-humanoide-que-la-ciencia-ficcion-anticipo.htmlFri, 12 Apr 2024 03:20:00 +0000Figure 01 es el prototipo más cercano al humanoide que la ciencia ficción había anticipado. El robot, que ha recibido este mes de marzo el apoyo inversor y tecnológico de la compañía de inteligencia artificial Open AI, el gigante de los procesadores Nvidia y Jeff Bezos, fundador de Amazon, es capaz de discernir objetos no solo por su forma sino por su funcionalidad, desarrollar tareas diversas ajustando sus movimientos a la resistencia de aquello que manipula, interaccionar con el entorno e incluso evaluar su desempeño. Figure se acerca en apariencia a las máquinas de Yo, robot y aún está lejos de Robocop, pero es un ejemplo de una fulgurante carrera tecnológica: el embodiment, un término inglés que podría traducirse por encarnación o personificación y que supone, según Luis Merino, profesor y director del Service Robotics Lab (Laboratorio de Robótica de Servicios) de la Universidad Pablo de Olavide, romper los límites de la “pasividad del aprendizaje” automático para acercarse al humano, donde la interacción con el entorno es la clave.

La apuesta de las grandes compañías por esta tecnología es clara. Nvidia, además de su apoyo financiero a Figure, ha anunciado GR00T, una plataforma específica para robots humanoides, en cuyo desarrollo hay una acelerada carrera en la que participan, entre otras, empresas como 1X Technologies, Agility Robotics, Apptronik, Boston Dynamics, Figure AI, Fourier Intelligence, Sanctuary AI, Unitree Robotics y XPENG Robotics.

Dennis Hong, fundador de RoMeLa, (de espaldas) juega con el robot Artemis en el Gitex de Dubái.

Dennis Hong es fundador de RoMeLa y creador de Artemis, un robot androide que juega al fútbol como demostración de la versatilidad conseguida en sus capacidades de movimiento. Hong explica el salto cualitativo de los nuevos desarrollos: “El 99,9% de los robots que existen hoy en día utilizan servomotores y son muy rígidos. Son excelentes para la automatización de fábricas o para tareas únicas domésticas [como los aspiradores autónomos], pero este robot [Artemis] imita el músculo biológico y le permite ser ágil, rápido, robusto y bastante inteligente”.

“Esta inteligencia”, según explica, le permite reconocer un buen plan y tomar decisiones de forma autónoma. “El futuro”, concluye, “es que pueda ejecutar cualquier cosa que un humano pueda hacer”. Para demostrarlo, Hong sujeta por la espalda a Artemis y lo empuja para forzarle a reaccionar ante un imprevisto, prueba que el robot supera.

Es un paso muy significativo frente a modelos como los de Deep Robotics, que desarrolla cuadrúpedos para trabajos industriales y de rescate. Vera Huang resalta los “avances motores, como la capacidad de saltar o subir escaleras”, pero admite que no están dotados de la última generación de inteligencia.

El robot Atlas, en una demostración de trabajo.

Cassie, de Agility Robotics, ha sido preparado para recorrer diferentes superficies y ejecutar grandes saltos sin conocer previamente el terreno. Lo hace a través de la técnica de “aprendizaje por refuerzo”. “El objetivo es enseñar al robot a aprender a hacer todo tipo de movimientos dinámicos de la forma en que lo hace un humano. Cassie utiliza el historial de lo que ha observado y se adaptara rápidamente al mundo real”, explica a MIT technology review Zhongyu Li, de la Universidad de California y participante en el desarrollo.

Los investigadores utilizaron una técnica de IA llamada aprendizaje por refuerzo para ayudar a un robot de dos patas. El aprendizaje por refuerzo funciona recompensando o penalizando a una IA mientras intenta llevar a cabo un objetivo. En este caso, el enfoque enseñó al robot a generalizar y responder en nuevos escenarios, en lugar de congelarse como habrían hecho sus predecesores.

“El siguiente gran paso es que los robots humanoides hagan un trabajo real, planifiquen actividades y se relacione con el mundo físico de maneras que no solo interaccionen con los pies y el suelo”, dice Alan Fern, profesor de Ciencias de la Computación en la Universidad Estatal de Oregón.

En este sentido avanza Figure, un robot de 1,70 metros de alto, 60 kilos, con capacidad para cargar un tercio de su peso, eléctrico, con cinco horas de autonomía y una velocidad de 1,2 metros por segundo. Pero lo que lo hace diferente, es su capacidad de desarrollar distintas tareas, discernir personas y objetos, actuar autónomamente y, sobre todo, aprender. La compañía defiende que su apariencia humana es necesaria porque “el mundo está diseñado para la misma”.

Figure es un ejemplo de encarnación o personalización. “No podemos separar mente y cuerpo. El aprendizaje los aúna. La mayoría de robots procesan imágenes y datos. Los entrenas y no tienen una interacción. Sin embargo, los humanos aprendemos interaccionando con nuestro entorno, porque tenemos un cuerpo y tenemos unos sentidos”, explica Merino.

Su equipo ya ha desarrollado robots de asistencia que, cuando actúan como guías turísticos, adaptan sus explicaciones a las reacciones de la gente, o actúan de acuerdo con los sentimientos de un anciano al que ayudan, o evitan vulnerar la distancia social de los humanos con los que trabajan.

Pero en la mayoría de los robots actuales, incluso los que cuentan con inteligencia artificial, “el aprendizaje es pasivo”, según relata el catedrático de la UPO. Cassie, además del desarrollo de la red neuronal artificial, ha desarrollado su destreza a través de aprendizaje por refuerzo, una técnica parecida a la utilizada para el adiestramiento de mascotas.

Merino profundiza en este sentido. “No le damos al robot una descripción explícita de lo que tiene que hacer, sino que aportamos una señal cuando se comporta mal y, en lo sucesivo, lo evitará. Y al contrario. Si lo hace bien, le damos una recompensa”. En el caso de las mascotas puede ser un juguete, una caricia o una golosina. Para los robots es un algoritmo que intentarán alcanzar el mayor número de veces con su comportamiento.

El investigador aclara que este sistema supone, además de un avance en las capacidades robóticas, una fórmula de hacerlos más eficientes, ya que precisan de menos energía para procesar millones de datos vinculados a todas las variables posibles. “Es muy difícil programar a un robot para todas las circunstancias a las que se puede enfrentar”, incide Merino.

“Llevamos decenas de años con robots en las fábricas haciendo cosas de forma algorítmica y repetitiva. Pero si queremos que sean más generales hay que dar un paso más”, concluye. La carrera robótica va en esta dirección.

Y como todo avance digital, la seguridad será un elemento determinante. Cualquier sistema, hasta un simple electrodoméstico conectado a la nube, puede ser víctima de ataques. En este sentido, Nvidia, presente en los desarrollos de robótica más avanzados, ha firmado un acuerdo de colaboración con Check Point para mejorar la seguridad de la infraestructura de inteligencia artificial en la nube.

También Amazon Web Services (AWS) ha anunciado su colaboración con Nvidia para utilizar la plataforma de esta última compañía, Blackwell, presentada este año en su conferencia de desarrolladores GTC 2024. El acuerdo incluye el uso conjunto de infraestructuras de ambas tecnológicas en desarrollos que incluyen la robótica.

Puedes seguir a EL PAÍS Tecnología en Facebook y X o apuntarte aquí para recibir nuestra newsletter semanal.

Seguir leyendo

]]>
Figure AI
<![CDATA[El perro que nunca existió: Google responde a Sora con nuevas herramientas de creación de vídeo con IA]]>https://elpais.com/tecnologia/2024-04-09/el-perro-que-nunca-existio-google-responde-a-sora-con-nuevas-herramientas-de-creacion-de-video-con-ia.htmlhttps://elpais.com/tecnologia/2024-04-09/el-perro-que-nunca-existio-google-responde-a-sora-con-nuevas-herramientas-de-creacion-de-video-con-ia.htmlTue, 09 Apr 2024 12:03:31 +0000La estrategia es de primero de marketing: primero se crea la necesidad y luego se vende la solución. Las herramientas de trabajo de Google, como Gmail, Drive, Calendar, Meet o Docs, las utilizan 3.000 millones de usuarios, muchos de ellos de forma gratuita con limitaciones. Pero 10 millones de ellos (40% de individuos y 60% de empresas) pagan por organizarse con estas aplicaciones. Y ahora que forman parte de la vida cotidiana de millones de personas y se ha creado la necesidad, irrumpe la inteligencia artificial con la promesa de mejorar esta experiencia. Pero la solución no será gratuita, sino que cada ventaja añadida costará 10 dólares más al mes, unos 9,2 euros. La empresa ha hecho este anuncio este martes en Las Vegas, donde celebra el encuentro anual de la compañía para presentar las novedades digitales (Google Next). Entre ellas, la reacción de la multinacional a Sora, la herramienta de Open AI capaz de crear vídeos de alta calidad a partir de simples peticiones de texto. La respuesta es un editor audiovisual, llamado Vids, e Imagen 2, similar a la competidora Sora, de Open AI.

La mayoría de los usuarios utilizan de forma limitada, pero gratis, algunas de las 11 aplicaciones incluidas en la plataforma de trabajo de Google Workspace (Gmail, Drive, Calendar, Chat, Docs, Sheets, Slides, Forms, Sites, Keep y Apps Script). Otros pagan al mes 5,75 euros (Business stater), 11,50 euros (standard) o 17,25 euros (Plus). Thomas Kurian, director general de Google Cloud, ha anunciado este martes la renovación de este popular y masivo conjunto de herramienta con Gemini for Workspace, la inteligencia artificial de Google.

Kurian argumenta que la innovación responde a la demanda de los usuarios. Según afirma, “el 70% utiliza la función Ayúdame a escribir y el 75% crea presentaciones en Slides”. La nueva “hornada de innovaciones y mejoras en Google Workspace con Gemini” incluye un complemento para reuniones y mensajería (10 dólares al mes) que permite, como ya hace la versión de pago de ChatGPT, tomar notas de reuniones, resumir estas y los chats (aplicaciones de conversación asociadas) y traducción simultánea en 69 idiomas.

Por otros 10 dólares, otro complemento de seguridad permite clasificar y proteger automáticamente los archivos y datos sensibles mediante IA. Según Aparna Pappu, directora general de Google Workspace, “utilizando grandes modelos de lenguaje, se identifica un 20% más de spam [correo basura o no deseado] en Gmail, se revisan 1.000 veces más reclamaciones de los usuarios a diario y se responde un 90% más rápido a los nuevos ataques de phishing [estafa por suplantación]”.

Vídeos

Pero una de las grandes apuestas de Google se orienta a la creación de vídeos. En este sentido, la plataforma de trabajo también incluirá la aplicación Google Vids, que permite elaborar guiones, producir y crear audiovisuales compatibles con el resto de las utilidades de la plataforma. “Vids se lanzará en breve en Workspace Labs y esperamos dar acceso a todos los clientes para finales de este año”, explica Kurian. “Probablemente, en junio”, precisa Aparna Pappu, directora general de Google Workspace.

“Vids es un asistente de vídeo, escritura, producción y edición, todo en uno. Puede generar un guion gráfico fácilmente editable y, después de elegir un estilo, crea un primer borrador a partir de escenas sugeridas con vídeos de archivo, imágenes y música de fondo. También puede ayudar a completar tu mensaje con la voz de narración adecuada, ya sea eligiendo una nuestra preestablecida o utilizando la del usuario”, explica Pappu.

“Todo lo que necesita es un navegador, y ese es el punto clave”, añade la directiva. “No es necesario enviar archivos por correo electrónico de un lado a otro; el equipo puede continuar en la historia al mismo tiempo con los mismos controles de acceso y seguridad de todo el espacio de trabajo,

El lanzamiento de Vids será restringido a subscriptores de Google en sus primeros pasos. “Estamos haciendo un despliegue para nuestros clientes de pago para obtener comentarios de ellos. Este producto está diseñado para un entorno de trabajo, que es donde está nuestra prioridad. Una vez que implementemos esas funciones para nuestros clientes de pago y obtengamos comentarios de nuestros usuarios, consideraremos expandirlo”, precisa Pappu.

Imágenes de rostros y manos creadas con inteligencia artificial a través de la aplicación Imagen 2 de Google.

Imagen 2 frente a Sora

El desarrollo más cercano a Sora también está reservado para los usuarios de Gemini 1.5 Pro, ya disponible en versión preliminar a través de la plataforma Vertex AI para desarrolladores. Se trata de Imagen 2, un modelo de IA que, según Amin Vahdat, directivo de Google Cloud, “brinda la ventana contextual más grande del mundo a los desarrolladores”. “Nuestra familia de modelos de generación de imágenes, ahora se puede utilizar para crear vídeos de cuatro segundos a partir de mensajes de texto, incluyendo la marca de agua digital”.

“Estamos viendo que las organizaciones aprovechan Imagen 2 para generar vídeos de alta calidad y precisión a escala empresarial. “Los equipos creativos y de marketing pueden generar imágenes animadas a partir de un mensaje de texto. Inicialmente, los vídeos serán de 24 fotogramas por segundo (fps) con una resolución de 360x640 píxeles y una duración de cuatro segundos, con planes de mejoras continuas”, explica Vahdat.

El programa está preparado para ofrecer variedad de ángulos y movimientos de cámara manteniendo la coherencia en toda la secuencia e incluyendo filtros de seguridad y marcas de agua digitales mediante SynthID (Google DeepMind). La nueva ley europea de inteligencia artificial obliga a distinguir de forma inequívoca que una creación ha sido generada por inteligencia artificial.

También facilitará en las versiones actualizadas la eliminación de aspectos no deseados en una imagen, la adición de nuevos elementos y la expansión de los bordes para crear un campo de visión más amplio.

Estos desarrollos responden al movimiento de Open AI con Sora, un modelo de inteligencia artificial que crea vídeos a partir de indicaciones con texto de hasta un minuto de duración mientras. Este productor audiovisual se encuentra en pruebas, según explica la compañía, “para evaluar áreas críticas en busca de daños o riesgos” y para obtener sugerencias y propuestas de artistas visuales, diseñadores y cineastas.

Open AI reconoce la necesidad de revisar el desarrollo porque, a pesar del espectacular realismo que ofrece en sus resultados, “el modelo actual tiene debilidades”, como fallos de precisión o alucinaciones como mostrar una escena que suponga la alteración de un objeto que, sin embargo, en los siguientes fotogramas aparece intacto o mezclar espacios o confundir trayectorias.

Puedes seguir a EL PAÍS Tecnología en Facebook y X o apuntarte aquí para recibir nuestra newsletter semanal.

Seguir leyendo

]]>
Google
<![CDATA[Darío Gil, IBM Research: “Este año estará el primer modelo de inteligencia artificial en español con casos de uso”]]>https://elpais.com/tecnologia/2024-04-08/dario-gil-ibm-research-este-ano-estara-el-primer-modelo-de-inteligencia-artificial-en-espanol-con-casos-de-uso.htmlhttps://elpais.com/tecnologia/2024-04-08/dario-gil-ibm-research-este-ano-estara-el-primer-modelo-de-inteligencia-artificial-en-espanol-con-casos-de-uso.htmlMon, 08 Apr 2024 03:20:00 +0000El cerebro humano es la estructura natural más compleja del universo conocido, con 86.000 millones de neuronas que transmiten 1.000 impulsos por segundo. Imitar solo una parte de esa extraordinaria maquinaria biológica para aprender, entender y responder en el español que hablan más de 500 millones de personas es la monumental tarea encargada por el Gobierno y en la que se han embarcado el Barcelona Supercomputing Center (BSC) con su superordenador MareNostrum y la multinacional IBM, que pondrá a disposición del proyecto todo su potencial de programación, investigación e infraestructura mundial de inteligencia artificial.

Darío Gil, murciano criado en Madrid que este 2024 cumple 49 años, ha sido el principal valedor tecnológico de esta aventura como máximo responsable de la división mundial de investigación de IBM. Participa en esta entrevista poco después de firmar el acuerdo que dará lugar al primer gran modelo de lenguaje de inteligencia artificial nacido en español. Convencido de que este avance es exponencial y sólido ―”una revolución”, proclama―, apuesta por una arquitectura abierta y colaborativa donde quepa todo, desde las actas de sesiones parlamentarias hasta la Real Academia Española o cualquier universidad o colectivo hispanohablante. Calcula que el primer desarrollo se podrá mostrar este año.

Pregunta. ¿Por qué apuesta IBM por la inteligencia artificial en español?

Respuesta. Nuestro punto de vista sobre la inteligencia artificial nos permite alinearnos con la estrategia que tiene el Gobierno. Creemos firmemente que el futuro de la inteligencia artificial se va a crear y definir a través de un ecosistema abierto y eso contrasta con otras empresas. Sucedió con los sistemas operativos hace más de 20 años y se hizo bien en su momento. Fue una apuesta decidida para que el futuro de los sistemas operativos, tanto en supercomputación como para todos los sistemas distribuidos de internet y demás, estén basados en código abierto. Nosotros hemos llegado al mismo convencimiento y la comunidad quiere participar en la creación de la inteligencia artificial.

P. ¿Cómo será la participación?

R. Vamos a crear entornos colaborativos para desarrollar modelos fundacionales basados en código abierto donde haya transparencia en los datos que se van a utilizar para el preentrenamiento y una metodología. Es muy importante para incrementar la capacidad de los modelos de manera discreta y día a día. Los modelos fundacionales existentes necesitan de seis a nueve meses de preentrenamiento y sacan versiones una vez al año. Si nosotros tenemos un modelo base para toda la comunidad de desarrolladores, para todo el que quiera a añadir conocimiento o capacidades, vamos a trabajar conjuntamente para crear los mejores modelos fundacionales abiertos en español y las lenguas cooficiales.

Si hay burbuja es de catastrofistas, pero la base tecnológica de la inteligencia artificial es potente y sólida

P. Cómo se va a desarrollar?

R. Desde el punto de vista de computación, utilizaremos las capacidades existentes en el BSC. Con su MareNostrum hay un compromiso del ministro [para la Transición Digital, José Luis Escrivá] de seguir invirtiendo para acelerar el paso del MareNostrum 5 al 6. Por nuestra parte, aportamos centros de supercomputación dedicados a inteligencia artificial y los últimos avances de IBM Research.

P. ¿Cuáles son los sectores prioritarios a los que va dirigido el modelo?

R. A todos, pero el Gobierno tiene interés en garantizar que se beneficie la pequeña y mediana empresa, donde hay mayor inhibición o complejidad a la hora de adoptar ese tipo de innovaciones, y la Administración del Estado. Hemos definido casos de uso para implementar la difusión de la inteligencia artificial en estos dos sectores.

El modelo utilizará datos públicos, pero hay un deseo de utilizar documentos que son propiedad del Estado, que es una cuestión muy singular e interesante. Las transcripciones de todos los debates del Parlamento es un ejemplo

P. ¿Cuánto cuesta?

R. No hay una respuesta concreta. Pero, si sirve para hacer una aproximación, puedo decir que para crear un modelo fundacional de alto rendimiento se necesitan miles de unidades de procesamiento que cuestan, cada una, 35.000 dólares [32.300 euros] como mínimo. Son proyectos muy ambiciosos; esto no es dos personas que hablan una tarde y hacen un PowerPoint. En IBM Research tenemos 3.600 científicos e ingenieros que participarán y nuestros propios equipos de supercomputación dedicados exclusivamente a crear modelos fundacionales. Y, como es un sistema abierto, habría que sumar la comunidad de desarrolladores hispanohablantes que quieran participar. Son esfuerzos que van en paralelo.

P. ¿De dónde saldrán los datos para alimentar el modelo?

R. Serán datos públicos, pero hay un deseo de utilizar documentos que son propiedad del Estado, que es una cuestión muy singular e interesante. Las transcripciones de todos los debates del parlamento es un ejemplo. Pero también se prevé la colaboración de las bibliotecas nacionales y la Real Academia Española. Serán datos que son públicos.

Al modelo le puedes pedir respuestas consistentes con la experiencia argentina y se comportará de esa manera, aprenderá del contexto desde donde se genera la interacción

P. ¿Y cómo se salva la diversidad de hablas del español?

R. Desde el punto de vista matemático, se pueden incorporar una gran diversidad de idiomas. La diversidad está dentro de la misma red neuronal y luego, cuando se hace el fine tuning [ajuste o perfeccionamiento], se adapta, aunque se haya entrenado con los documentos base, a las diferentes variaciones del español. Al modelo le puedes pedir respuestas consistentes con la experiencia argentina y se comportará de esa manera, aprenderá del contexto desde donde se genera la interacción.

P. Pero “coger una cita” en castellano puede no tener el mismo significado en algunos países de Hispanoamérica, por poner un ejemplo para un caso de uso administrativo.

R. El modelo base aumentará, se especializará y ganará habilidades con el esfuerzo de todos para que entienda contextos específicos. El modelo de código abierto permite esa enorme diversidad. Y el objetivo es expandirlo lo más posible, incluso a Brasil. Iberoamérica es un mercado enorme de oportunidades y es importante aprovechar la ventaja competitiva del español.

El objetivo es expandirlo lo más posible, incluso a Brasil. Iberoamérica es un mercado enorme de oportunidades y es importante aprovechar la ventaja competitiva del español

P. ¿Cuándo estará disponible el primer modelo?

R. El objetivo es hacer algo este año y, en paralelo, desarrollar algunos casos de uso en las mismas fechas. En este mundo [de la inteligencia artificial], que es muy dinámico, a nadie le interesan los plazos de años.

P. ¿Y qué gana IBM?

R. Pondré el ejemplo de Red Hat [multinacional de programación de código abierto cuya empresa matriz es IBM]. Factura miles de millones de dólares anuales y es la mayor empresa del mundo de software abierto. El modelo es facilitar el programa a empresas y gobiernos que, luego, querrán mantenimiento o seguridad compatible con los equipos. A ese modelo comercial estamos acostumbrados. No lo hacemos porque seamos altruistas, sino porque creemos en ese modelo. Queremos socios estratégicos y hemos encontrado muchísimas resonancias en el Gobierno de España. En la alianza de inteligencia artificial que tenemos hay más de 80 instituciones que forman parte de este compromiso.

P. ¿Hay burbuja de la inteligencia artificial?

R. La tecnología en sí está evolucionando a una velocidad como nunca he visto hacerlo a ninguna otra. Y ya no planificamos a un año o dos, sino para dentro de un mes, semanas o días. No veo burbuja. Si la hay es de catastrofistas, pero la base tecnológica es potente y sólida.

Puedes seguir a EL PAÍS Tecnología en Facebook y X o apuntarte aquí para recibir nuestra newsletter semanal.

Seguir leyendo

]]>
<![CDATA[IBM se suma al desarrollo de la inteligencia artificial nativa en español]]>https://elpais.com/tecnologia/2024-04-05/ibm-se-suma-al-desarrollo-de-la-inteligencia-artificial-nativa-en-espanol.htmlhttps://elpais.com/tecnologia/2024-04-05/ibm-se-suma-al-desarrollo-de-la-inteligencia-artificial-nativa-en-espanol.htmlFri, 05 Apr 2024 12:00:32 +0000El lenguaje es la herramienta más poderosa de la inteligencia humana. Permite la comunicación, la representación, la interpretación del entorno, la reflexión, la resolución de problemas y el desarrollo del conocimiento, además de ser un elemento de identidad cultural. Hasta ahora, la inteligencia artificial (IA) habla sus propios lenguajes de programación y, principalmente, inglés, el idioma predominante en el ámbito tecnológico. El resto de las lenguas, mayoritariamente, se traduce generando errores y limitaciones en sus resultados. España quiere acabar con esa brecha que afecta a 500 millones de hispanohablantes en el mundo y ha firmado ya un acuerdo con Microsoft para el desarrollo de una IA nativa en español. Este viernes, IBM se ha sumado a esta cruzada e incorpora sus plataformas de inteligencia artificial y de supercomputación a este avance, que incluirá las lenguas cooficiales, y al desarrollo de nuevos materiales para semiconductores.

No se trata solo de que las aplicaciones de conversación sean más precisas en la interacción con hispanohablantes: la clave es que la inteligencia artificial, que permite, según Hazem Nabih, director de tecnología para Oriente Próximo en Microsoft, “un aumento de la productividad en cualquier compañía de entre un 30% y un 50%”, llegue a todo el mundo que habla español (el 6% de la población mundial) sin dejar atrás a pequeñas y medianas empresas o personas con conocimientos limitados de inglés.

También es fundamental para lo que el ministro de Transformación Digital español, José Luis Escrivá, define como “soberanía tecnológica estratégica”, una independencia que considera “crucial para sectores críticos de la economía o la seguridad”. “La IA nos sitúa en el umbral de una nueva revolución industrial, con un impacto potencial muy significativo en términos de ganancias de productividad para un gran número de sectores económicos, y en la mejora de los servicios públicos para nuestros ciudadanos”, ha afirmado el ministro.

El acuerdo también impulsará la implantación de una administración digital eficaz que permita presentar la declaración de la renta o el acceso a servicios en todo momento mediante la interacción con una máquina por voz y por escrito. O para la incorporación de inteligencia artificial a la asistencia sanitaria, a la educación e incluso a la administración de justicia.

El pasado 19 de febrero, Brad Smith, presidente de Microsoft, firmó un acuerdo con el Gobierno español para colaborar en esta cruzada y cuadruplicar su inversión hasta superar los 1.800 millones de euros en dos años, la mayor de los 37 años de presencia de la compañía en España. Este viernes, Darío Gil, vicepresidente mundial de IBM y director de la división de investigación, ha firmado otro acuerdo con el presidente del Gobierno, Pedro Sánchez, y Escrivá para poner a disposición de este proyecto su tecnología de programación, así como sus herramientas e infraestructura de IA.

IBM colaborará en el desarrollo de modelos de lenguaje grandes (LLM, por sus siglas en inglés), como los que utilizan ahora ChapGPT (Open AI) o Gemini (Google), y pequeños (SLM). Los primeros son complejos, utilizan más parámetros (billones) y son más difíciles y costosos de entrenar. Pero son fundamentales para el desarrollo de tareas complicadas y que impliquen una salida creativa. Los segundos, menos sofisticados, se utilizan para soluciones más simples y son claves para precisar la eficacia de buscadores, como el Bert de Google, para pequeñas y medianas empresas o para ampliar la comunidad de creadores y desarrolladores de IA.

El desarrollo de una inteligencia artificial en español implica una dificultad por la diversidad de hablas entre sus 500 millones de usuarios. Darío Gil afirma que están preparados: “No hay problema alguno. De la misma manera que hay modelos entrenados en distintas lenguas, se puede entrenar un modelo en las distintas hablas de un determinado idioma. La dificultad no estriba tanto en mezclar distintas hablas, sino en conseguir suficientes ejemplos de cada una de esas hablas para que todas estén representadas de igual manera. En este sentido, la capacidad que hemos desarrollado en IBM para crear modelos a partir de una comunidad abierta, es la mejor arma que hay para asegurar el correcto desarrollo de ese modelo”.

Tampoco cree el vicepresidente de IBM que la menor presencia del español como idioma tecnológico sea una dificultad añadida. “La tradición tecnológica ―o ausencia de ella― de un idioma determinado, sea el español o cualquier otro, no es muy relevante a la hora de generar estos modelos. Lo relevante es conseguir suficientes textos en ese idioma para entrenar al modelo y en español hay muchos. Y los que falten para ganar conocimiento en una determinada habla del español u otra, podemos conseguirlos gracias a la aproximación de comunidad abierta a la que se han comprometido el Gobierno español e IBM”.

La “comunidad abierta” en la que insiste Darío Gil es una de las claves de la propuesta de IBM, que se centra en un desarrollo de programación compatible con tecnologías ajenas a la marca y accesible a cualquier integrante de la comunidad a la que va dirigida. “Este esfuerzo colaborativo tiene como objetivo beneficiar al sector público y a las pequeñas y medianas empresas”, explica la compañía. “Será abierta, por supuesto”, ratifica el responsable de investigación de IBM.

Puedes seguir a EL PAÍS Tecnología en Facebook y X o apuntarte aquí para recibir nuestra newsletter semanal.

Seguir leyendo

]]>
Fernando.Calvo
<![CDATA[De Rosalía al instituto: la inteligencia artificial generaliza la creación de imágenes pornográficas no consentidas]]>https://elpais.com/tecnologia/2023-09-18/de-rosalia-al-instituto-la-inteligencia-artificial-generaliza-la-creacion-de-imagenes-pornograficas-no-consentidas.htmlhttps://elpais.com/tecnologia/2023-09-18/de-rosalia-al-instituto-la-inteligencia-artificial-generaliza-la-creacion-de-imagenes-pornograficas-no-consentidas.htmlMon, 18 Sep 2023 14:44:55 +0000La detección de fotografías falsas de desnudos de adolescentes en Almendralejo (Badajoz) evidencia que la plaga de violencia machista con creaciones hiperrealistas de inteligencia artificial con fines maliciosos, especialmente pornográficos, ha llegado a España. Estados Unidos, Reino Unido y Corea del Sur están a la cabeza en denuncias, pero los casos de la cantante Rosalía, víctima de otro cantante que difundió un falso desnudo, y la modelo Laura Escanes, que denunció un ataque similar, demuestran que esta lacra se ha asentado también en España y se ha extendido a todos los ámbitos, incluidos grupos de menores. Las armas son aplicaciones de inteligencia artificial de fácil acceso, pese a las limitaciones que intentan imponer algunas compañías.

El número de estos contenidos en internet, conocidos como deepfakes, se duplica cada seis meses y acaparan más de 134 millones de visualizaciones. En el 95% de los casos, la intención es generar pornografía sin consentimiento y las mujeres son las víctimas en nueve de cada 10 creaciones, según Sensity AI, una compañía de investigación que rastrea vídeos hiperrealistas falsos en internet.

Un deepfake es un vídeo o una imagen estática (también puede ser sonido) donde se sustituye el rostro de la imagen original por el de cualquier otra persona, famosa o no. Se basan en técnicas de aprendizaje mecánico profundo a raíz de algoritmos complejos que, una vez implementados en una aplicación, son de fácil manejo.

La inteligencia artificial ha convertido este proceso en algo accesible. Esta recrea una secuencia aprendiendo de miles de imágenes similares y utiliza redes neuronales generativas antagónicas (GAN, por sus siglas en inglés) para desarrollar patrones y facilitar que la reproducción sea hiperrealista. Ni siquiera es necesario disponer de un potente equipo personal para crearlos, ya que existen recursos en plataformas en la nube, en aplicaciones, webs e incluso por Telegram. Algunas compañías como Google han lanzado una base de datos con miles de vídeos manipulados para desarrollar herramientas que detecten las falsificaciones.

Responsabilidad empresarial

Dall-e, una de las aplicaciones de creación digital, asegura que ha “limitado la capacidad para generar imágenes violentas, de odio o adultas” y ha desarrollado tecnologías para “evitar generaciones fotorrealistas de rostros de individuos reales, incluidos los de figuras públicas”. Un grupo de 10 empresas ha firmado un catálogo de directrices sobre cómo construir, crear y compartir contenidos generados por IA de forma responsable.

Pero muchas aplicaciones campan libremente por la Red o por plataformas de mensajería o de código abierto. Además, la misma inteligencia artificial que se aplica para crear las imágenes facilita eludir los controles.

Los deepfakes más conocidos afectan a personajes populares. Dos de las primeras famosas afectadas fueron las actrices Emma Watson y Natalie Portman. Pero se pueden crear con cualquier persona accediendo a sus imágenes en redes sociales o robándolas de los equipos personales.

“Es crucial mantener las imágenes protegidas y garantizar la privacidad, ya que muchos ciberdelincuentes pueden acceder a ellas a través de diversas técnicas”, afirma Marc Rivero, investigador de seguridad de Kaspersky. Sin embargo, según un informe de esta compañía, el 43,5% de los españoles no protege las cámaras de ninguno de sus dispositivos y tampoco sus imágenes.

Ciberviolencia machista

La utilización de deepfakes de mujeres “es un problema de violencia machista”, afirma al Instituto Tecnológico de Massachusetts (MIT) Adam Dodge, fundador de EndTAB, una organización sin ánimo de lucro para la educación en usos tecnológicos.

El Instituto Europeo para la Igualdad de Género también lo considera así e incluye estas creaciones en su informe sobre ciberviolencia contra las mujeres como una forma más de agresión machista.

“La violencia online no es más que una continuación de la violencia que se produce contra las mujeres y las chicas en el día a día. Esta se amplifica, se extiende y se agrava con el uso de internet y los dispositivos digitales”, explica Iris Luarasi, presidenta del Grupo Experto en la Lucha contra la Violencia contra la Mujer y la Violencia Doméstica (Grevio).

El Instituto Europeo para la Igualdad de Género (EIGE, por sus siglas en inglés) incluye entre los ataques “emergentes” contra las mujeres “la difusión de imágenes falsas o la recepción de contenido sexual explícito no requerido”.

Expertos como Borja Adsuara, profesor universitario especializado en derecho digital, abogan por la identificación inequívoca de los contenidos como falsos y por rastreadores automáticos de estas creaciones. A su juicio, lo que separa el deepfake de una creación personal amparada por la libertad de expresión es su verosimilitud y la finalidad. Adsuara explica que la regulación actual se fija en el resultado de las acciones y la intención del delincuente. “Si la escena nunca ha existido porque es falsa, no se está descubriendo un secreto. Habría que tratarlo como un caso de injurias o como delito contra la integridad moral al difundirlo con intención de humillar públicamente a otra persona”, explica.

El letrado apunta como una solución que se incorpore el concepto de pseudopornografía, que ya se aplica con menores. “Esto permitiría que los delitos contra la intimidad no incluyeran solo los vídeos reales, sino también los realistas con imágenes íntimas que se parezcan a las de una persona”.

El pasado mayo, Junts per Catalunya presentó una proposición de ley que abordaba la reforma del Código Penal para incluir la difusión de deepfakes, pero fue rechazada y relegada para su debate en la próxima legislatura. El texto proponía penas de prisión de seis meses a dos años para la divulgación de estas creaciones por cualquier medio cuando “menoscabe gravemente el honor o la intimidad”. También se pedía multa de uno a tres meses para quien, habiéndolas recibido por cualquier plataforma, “las difunda, revele o ceda a terceros sin el consentimiento de la persona afectada.” La pena mayor se dirigía a cónyuges o amistades, si existía, además, ánimo de lucro, y cuando la víctima fuera menor de edad o una persona con discapacidad.

Puedes seguir a EL PAÍS Tecnología en Facebook y Twitter o apuntarte aquí para recibir nuestra newsletter semanal.

Seguir leyendo

]]>
Luis Sevillano
<![CDATA[No si es mi hija: el usuario de porno ‘deepfake’ lo ve sin reparo, pero lo denunciaría si la víctima fuera de su entorno]]>https://elpais.com/tecnologia/2024-03-23/no-si-es-mi-hija-el-usuario-de-porno-deepfake-lo-ve-sin-reparo-pero-lo-denunciaria-si-la-victima-fuera-de-su-entorno.htmlhttps://elpais.com/tecnologia/2024-03-23/no-si-es-mi-hija-el-usuario-de-porno-deepfake-lo-ve-sin-reparo-pero-lo-denunciaria-si-la-victima-fuera-de-su-entorno.htmlSat, 23 Mar 2024 04:20:00 +0000Todavía no era primera ministra italiana, pero ya era popular cuando hace cuatro años se publicó un vídeo pornográfico falso con la cara de Giorgia Meloni en el cuerpo de otra mujer. El próximo 2 de julio está llamada a declarar en una demanda contra los implicados, un hombre de 40 años, que elaboró las imágenes, y su padre de 73, que prestó la línea para publicarlo. Les reclama 100.000 euros como “medida simbólica ejemplar” que “contribuya a la protección de las mujeres blanco de este tipo de delitos”, según la abogada Maria Giulia Marongiu. Los deepfakes, materiales audiovisuales falsos hiperrealistas, se duplican cada año desde que se registró la primera denuncia en 2017 por desnudos no consentidos y poco han cambiado desde entonces. Una investigación de Home Security Heroes (HSH) ratifica un panorama ya identificado: el 98% es pornografía y 99 de cada 100 víctimas son mujeres y casi todas populares.

El cambio más radical ha sido tecnológico. Si en un principio se precisaban conocimientos de informática y edición de imágenes, ahora, una de cada tres herramientas disponibles permite elaborar creaciones falsas en menos de 25 minutos y a coste cero. Google, que sirve como indicador al ser el buscador predominante, ha retirado, según su último informe de transparencia, 8.000 millones de enlaces. Miles de ellos son páginas de deepfakes, concentradas en dos portales, según la base de datos Lumen de la Universidad de Harvard. Las tecnológicas, obligadas por las nuevas leyes, comienzan a actuar.

La accesibilidad de las herramientas (60% en línea y el 40% descargable) se une a las motivaciones de los abusadores, que se autoconvencen de que solo lo hacen por curiosidad, la atracción por las famosas, como el caso de la cantante Taylor Swift, y la visualización de una fantasía, según HSH. Esta pueril percepción lleva a que un 74% de los usuarios (según una encuesta con 1.522 participantes masculinos) no se sienta culpable.

Pero esta supuesta ingenuidad es tan falsa como el material que consumen. “Es un problema de violencia machista”, afirma al Instituto Tecnológico de Massachusetts (MIT) Adam Dodge, fundador de EndTAB, una organización sin ánimo de lucro para la educación en usos tecnológicos. La Directiva de la UE relativa a la lucha contra la violencia contra las mujeres incluye estas creaciones como agresión.

Y la percepción de este ataque es tan clara que hasta la gran mayoría de los usuarios de deepfakes, según el estudio de HSH, haciendo un alarde de hipocresía, los denunciaría si la víctima fuera alguien cercano (73%) y se sentiría “conmocionado e indignado” (68%) por la violación de su intimidad.

El crecimiento de los desnudos no consentidos se ha producido a pesar de leyes que condenan estas prácticas y amparan a las víctimas frente a la alegada libertad de expresión que esgrimen los creadores de contenidos. Conforme al artículo 18.1 de la Constitución, los derechos al honor, a la intimidad personal y familiar y a la propia imagen tienen el rango de fundamentales (…) El artículo 20.4 dispone que el respeto de tales derechos constituye un límite al ejercicio de las libertades de expresión”. Así arranca la Ley Orgánica 1/1982 que regula esta materia.

“Desde un punto de vista teórico, ahí hay un marco de referencia posible”, explica Ricard Martínez, director de la Cátedra de Privacidad y Transformación Digital de la Universidad de Valencia. En Estados Unidos, la mayoría de las reclamaciones se amparan en la Digital Millennium Copyright Act (DMCA) de 1998.

“En el momento en que coges la imagen real de una persona, pero la modificas con cualquier intención, hay una conducta instrumental que consiste en tratar su imagen sin consentimiento para un fin que no es lícito”, explica Martínez. “Otra cosa”, matiza, “es un humorista que genera una imagen con ánimo satírico y en un contexto claro”.

Pero estas normativas se han mostrado insuficientes, por lo que Europa aprobó en noviembre de 2022 (entró en vigor el pasado mayo) las leyes de servicios y mercados digitales para “proteger los derechos fundamentales de los usuarios y establecer unas condiciones de competencia equitativas para las empresas”. Estas normas obligan a las grandes empresas a colaborar en la evaluación de riesgos, identificación, notificación y eliminación de enlaces sospechosos.

“Hay dos sujetos importantes: el que ofrece la herramienta, que siempre dirá que su aplicación no fue pensada para cometer un delito, y el que ofrece la creación, el que hace de altavoz. La norma les impone deberes de colaboración más intensos a estos últimos”, añade Martínez.

Google admite las nuevas responsabilidades y, en una escueta respuesta por escrito, ante el incremento de reclamaciones, declara: “Tenemos políticas para la pornografía deepfake no consensuada, por lo que las personas pueden eliminar este tipo de contenido que incluye su imagen de los resultados de búsqueda. Y estamos desarrollando activamente salvaguardas adicionales para ayudar a las personas afectadas. Por otra parte, tenemos un proceso de eliminación que permite a los titulares de derechos proteger su trabajo en Internet”.

Meta también está en esta línea. Nick Clegg, como presidente de asuntos globales, anunciaba el pasado 6 de febrero: “Aplicamos etiquetas de Imaginado con IA a imágenes fotorrealistas creadas con nuestra función, pero también queremos poder hacerlo con contenido creado con herramientas de otras empresas”. Se refiere a Google, OpenAI, Microsoft, Adobe, Midjourney y Shutterstock a medida que implementen sus planes para agregar metadatos a las imágenes creadas por sus herramientas.

Las grandes tecnológicas se van sumando así a la cruzada legal contra los deepfakes y a la reciente aprobación de la ley europea de inteligencia artificial, que obliga a etiquetar de forma inequívoca las creaciones desarrolladas con esta tecnología. El Gobierno de Estados Unidos también avanza en esa dirección. “Ya no se puede alegar que el uso del sistema o sus resultados responden al ejercicio de la libertad de expresión y de la libertad de creación”, celebra el profesor valenciano.

“La preocupación es común y empieza a ver una confluencia de intereses desde dos culturas jurídicas distintas. Empieza a lanzarse el mensaje a estas compañías de que no todo vale, que no se pueden lavar las manos diciendo ‘oiga, yo solo soy una plataforma y no puedo ser responsable de todo’. Los proveedores de servicio de la sociedad de información tienen una influencia decisiva sobre la viralización de los contenidos que se muestran. No son un operador neutral o un mero contenedor. Ellos forman parte de la operación, del juego”, concluye Ricard Martínez.

Puedes seguir a EL PAÍS Tecnología en Facebook y X o apuntarte aquí para recibir nuestra newsletter semanal.

Seguir leyendo

]]>
Luis Sevillano
<![CDATA[“Todos podemos ser víctimas y los daños son irreparables”: cómo los ‘deepfakes’ han inundado el planeta]]>https://elpais.com/tecnologia/2023-09-21/todos-podemos-ser-victimas-y-los-danos-son-irreparables-como-los-deepfakes-han-inundado-el-planeta.htmlhttps://elpais.com/tecnologia/2023-09-21/todos-podemos-ser-victimas-y-los-danos-son-irreparables-como-los-deepfakes-han-inundado-el-planeta.htmlThu, 21 Sep 2023 03:20:00 +0000Los deepfakes, reproducciones hiperrealistas que la inteligencia artificial ha llevado a límites inauditos de accesibilidad y difusión, lo inundan todo, como demuestra el caso de las recreaciones falsas de desnudos de adolescentes en Almendralejo (Badajoz) esta semana. “Todos podemos ser víctimas. Internet es la selva. No hay control y no es un juego: es un delito”, advierte la presidenta de la federación extremeña de padres y madres de alumnos Freapa, Maribel Rengel. El informe más citado, realizado por Deeptrace, rastreó hasta medio millón de archivos falsos en la red mundial con un crecimiento de casi el 100% cada seis meses. Pero es solo el trabajo de una entidad. El volumen real se desconoce. Sí se sabe que el 96% es pornografía y que estas creaciones han saltado del ámbito de la imagen a la voz, a los textos, a los documentos y al reconocimiento facial, o la combinación de todos, hasta convertirse en uno de los vectores emergentes de fraude más preocupantes a partir de una tecnología aún sin regular.

El Instituto Europeo de Normas de Telecomunicaciones (ETSI, por sus siglas en inglés) advierte en uno de los informes más completos y actualizados de los peligros del “cada vez más fácil” uso de la inteligencia artificial en la creación de archivos falsos. La ETSI, formada por más de 900 entidades de todo ámbito, alerta: “Debido a los avances significativos en la aplicación de la inteligencia artificial a la generación y modificación de datos, han surgido nuevas amenazas que pueden conducir a riesgos sustanciales en diversos entornos que van desde la difamación personal y la apertura de cuentas bancarias utilizando identidades falsas (mediante ataques a los procedimientos de autenticación biométrica) hasta campañas para influir en la opinión pública”. Estos son los principales objetivos:

Pornografía. Danielle Citron, profesora de derecho en la Universidad de Boston y autora de Crímenes de odio en el ciberespacio (Hate crimes in cyberspace), afirma: “La tecnología deepfake se usa como arma contra las mujeres al insertar sus rostros en la pornografía. Es aterrador, vergonzoso, degradante y silenciador. Los vídeos de sexo deepfake dicen a las personas que sus cuerpos no son suyos y pueden dificultar sus relaciones en línea, la obtención o mantenimiento de un trabajo o que se sientan seguras”.

Rengel lo comparte tras el caso que ha afectado a varios institutos de su comunidad. “La sensación es de vulnerabilidad y es muy difícil de controlar. Los daños son irreparables. Pueden arruinar la vida de una niña”, afirma la representante extremeña para exigir, de forma urgente, un pacto de Estado que regule el uso de esta tecnología.

Estos ataques consisten en la difusión de vídeos, imágenes, audio o texto falsos en las redes sociales para arruinar la reputación de la víctima o humillarla. El informe de Deeptrace calculaba el número de reproducciones de este material en más de 134 millones. Mujeres conocidas han sido víctima de estas prácticas desde hace años. La cantante Rosalía ha sido la última española famosa de una larga lista internacional que encabezaron Emma Watson y Natalie Portman.

Pero como advierte Rengel, “nadie está libre”. A golpe de clic, en plataformas en abierto o en sistemas de mensajería cifrada se pueden encontrar aplicaciones y páginas que ofrecen “desnudar a cualquiera” en segundos. Advierten de que es para mayores de 18 y que no se pueden usar fotos de una persona sin su consentimiento, aunque no lo comprueban, descargan la responsabilidad en el usuario y afirman que el objetivo es “el entretenimiento”.

El creador de contenidos Brandon Ewing, conocido como Atrioc, fue sorprendido en directo a principios de año con una página de deepfakes pornográficos con recreaciones falsas de sus colegas Pokimane, Maya Higa y Blaire (pide eludir el apellido para proteger a la familia), conocida como QTCinderella. Ewing alegó que la consulta fue “accidental”, pero la reacción de las víctimas fue demoledora.

Higa afirmó sentirse “asqueada, vulnerable y ultrajada”. QTCinderella publicó un impactante vídeo de repulsa: “Aunque no es mi cuerpo, bien podría serlo. Fue la misma sensación de una violación. ¡La constante explotación y cosificación de las mujeres agota!”. Pokimane recordó la necesidad de “consentimiento para determinadas prácticas, como sexualizar a las mujeres”.

La Oficina Federal de Investigación de Estados Unidos (FBI) ha alertado del aumento de ciberdelincuentes que emplean las imágenes y vídeos de las redes sociales para elaborar deepfakes con los que acosar y extorsionar a las víctimas.

Bulos para influir en la opinión pública. Giorgio Patrini, fundador de Deeptrace, afirma: “Los deepfakes ya están desestabilizando los procesos políticos. Sin contramedidas defensivas, la integridad de las democracias de todo el mundo está en riesgo”.

El informe de ETSI identifica estos ataques como publicaciones falsas que crean la impresión de que personas que ocupan cargos influyentes han escrito, dicho o hecho ciertas cosas. “Se aplica a todos los propósitos donde hay mucho en juego y el beneficio justifica el esfuerzo desde la perspectiva de un atacante”, alerta la entidad. Pueden utilizarse para el desprestigio de un personaje, manipular precios, atacar a competidores, influir en la opinión pública en el periodo previo a las elecciones o plebiscitos, fortalecer el alcance de una campaña de desinformación y como propaganda, especialmente en tiempos de guerra.

En marzo de 2022, se publicó un video deepfake del presidente ucranio, Volodímir Zelenski, donde anunciaba la capitulación ante la invasión rusa. La política estadounidense Nancy Pelosy ha sufrido otro en el que parecía borracha, y ni Donald Trump ni Barack Obama ni el Papa ni Elon Musk se han librado de creaciones similares.

Ataques a la autenticidad. Se dirigen explícitamente a los procedimientos de identificación y autenticación biométrica remota. Tales procedimientos son de uso generalizado en muchos países para dar a los usuarios acceso a servicios digitales, como abrir cuentas bancarias, porque reducen los costos y facilitan la contratación de productos.

En 2022, un grupo de hackers (piratas informáticos) denominado Chaos Computer Club ejecutó ataques exitosos contra procedimientos de identificación de vídeo aplicando métodos deepfake.

Seguridad en internet. Muchos ataques se fundamentan en el error humano para acceder a los sistemas corporativos, como el reciente secuestro sufrido por el Ayuntamiento de Sevilla. Pero los archivos falsos hiperrealistas multiplican la capacidad de acceso al aportar datos falsos de difícil identificación. Pueden involucrar escritos con el estilo del supuesto remitente, voz y vídeos de las personas que supuestamente se comunican con las víctimas del ataque. El objetivo es que las víctimas pinchen en enlaces maliciosos, que los atacantes pueden usar para obtener credenciales de inicio de sesión o para distribuir malware (programas maliciosos).

Un gerente de banco en Hong Kong fue engañado en 2020 por atacantes que falsificaron la voz de un director de la entidad para lograr una transferencia de 35 millones de dólares, según informó Forbes. Una compañía de energía en el Reino Unido también sufrió un ataque similar un año antes que le costó 243.000 dólares.

Cine con falsos actores y guionistas. En el área artística, esta tecnología se puede utilizar para crear contenido cinematográfico. El sindicato SAG-AFTRA, que agrupa a 160.000 trabajadores de la industria del entretenimiento, convocó una huelga en Hollywood en julio para reclamar, además de mejores remuneraciones, garantías de protección ante el uso de la inteligencia artificial en las producciones.

Tanto actores como escritores demandan la regulación de tecnologías que pueden escribir una historia o reemplazar actores mediante el uso del deepfake, que permite replicar el físico, voz y movimientos de una persona. La generalización de estas herramientas permitiría a las grandes productoras prescindir de seres humanos en la creación de contenidos.

El actor británico Stephen Fry, narrador de los audiolibros de Harry Potter en el Reino Unido, ha denunciado el uso de su voz sin su consentimiento en un documental. “Podrían hacerme leer cualquier cosa: desde un mensaje para asaltar el Parlamento hasta secuencias de porno duro. Todo sin mi conocimiento y sin mi permiso”, ha declarado.

Puedes seguir a EL PAÍS Tecnología en Facebook y Twitter o apuntarte aquí para recibir nuestra newsletter semanal.

Seguir leyendo

]]>
<![CDATA[‘Deepfakes’: la amenaza con millones de visualizaciones que se ceba con las mujeres y desafía la seguridad y la democracia]]>https://elpais.com/tecnologia/2023-03-19/deepfakes-la-amenaza-con-millones-de-visualizaciones-que-se-ceba-con-las-mujeres-y-desafia-la-seguridad-y-la-democracia.htmlhttps://elpais.com/tecnologia/2023-03-19/deepfakes-la-amenaza-con-millones-de-visualizaciones-que-se-ceba-con-las-mujeres-y-desafia-la-seguridad-y-la-democracia.htmlSun, 19 Mar 2023 04:20:00 +0000“Esta es la cara del dolor”. Así arranca la creadora de contenidos QTCinderella un vídeo en el que denuncia haber sido víctima de la difusión de una secuencia pornográfica hiperrealista creada con inteligencia artificial. Las imágenes a las que se refiere son falsas, el daño causado no. La popular figura de internet, de 29 años, se suma a una larga lista de personas afectadas por este tipo de creaciones, conocidas como deepfakes. Las aplicaciones de inteligencia artificial hacen que cada vez sean más fáciles de producir y más difícil de identificar su falsedad, mientras su regulación y control va por detrás del desarrollo de estas tecnologías. El número de estos contenidos en internet se dobla cada seis meses y acapara más de 134 millones de visualizaciones. Más del 90% de los casos es pornografía sin consentimiento. Una investigación de la Universidad Northwestern y de Brookings Institution (ambas de EE UU) alerta de su peligro potencial para la seguridad. Otros estudios advierten del riesgo de interferencia y manipulación en procesos políticos democráticos.

Sonia Velázquez, estudiante universitaria de Sevilla, sintió curiosidad por cómo funcionan los vídeos deepfakes y le pidió a su novio, estudiante de diseño gráfico, que le mostrara una prueba y se prestó a que lo hiciera con su imagen. “Empezó como un juego, pero no lo es. Me vi vulnerable. Sabía que no era yo, pero imaginé a todos mis amigos compartiendo ese vídeo, bromeando y sabe Dios qué más. Me sentí ensuciada y, aunque lo borramos de inmediato, no paro de pensar lo fácil que puede ser y el daño que puede causar”, relata.

“Verte desnuda en contra de tu voluntad y difundida en internet es como sentirse violada. No debería ser parte de mi trabajo tener que pagar dinero para que eliminen estas cosas, ser acosada. Me agota la constante explotación y cosificación de las mujeres”, afirma QTCinderella tras la difusión del vídeo deepfake del que ha sido víctima. Antes que ella, la artista británica Helen Mort sufrió la misma agresión con fotos que cogieron de sus redes sociales. “Te hace sentir impotente, como si te castigaran por ser una mujer con voz pública”, afirma. “Cualquier persona de cualquier ámbito de la vida puede ser el objetivo de esto y parece que a la gente no le importa”, lamenta otra víctima de los vídeos hiperrealistas que pide no ser identificada para evitar búsquedas en las redes, aunque cree haber conseguido borrar todo rastro.

Los bulos son tan antiguos como la humanidad. Las fotografías falseadas tampoco son recientes, pero se generalizaron a finales del pasado siglo con fáciles y populares herramientas de edición de imágenes estáticas. La manipulación de vídeos es más novedosa. La primera denuncia pública es de finales de 2017 contra un usuario de Reddit que la utilizó para desnudar a famosas. Desde entonces, no ha parado de crecer y ha pasado a la creación de audios hiperrealistas.

“Las tecnologías deepfake presentan desafíos éticos significativos. Se están desarrollando rápidamente y se están volviendo más baratas y accesibles día a día. La capacidad de producir archivos de vídeo o audio de aspecto y sonido realistas de personas que hacen o dicen cosas que no hicieron o dijeron trae consigo oportunidades sin precedentes para el engaño. La política, la ciudadanía, las instituciones y las empresas ya no pueden ignorar la construcción de un conjunto de reglas estrictas para limitarlas”, resume Lorenzo Dami, graduado en la Universidad de Florencia y autor de un trabajo recogido en Research Gate.

Pornografía no consentida

Los vídeos hiperrealistas falsos afectan principalmente a las mujeres. Según Sensity AI, una compañía de investigación que rastrea vídeos hiperrealistas falsos en internet, entre el 90% y el 95% de ellos son pornografía sin consentimiento y nueve de cada 10 de estos se refieren a mujeres. “Este es un problema de violencia machista”, afirma al Instituto Tecnológico de Massachusetts (MIT) Adam Dodge, fundador de EndTAB, una organización sin ánimo de lucro para la educación en usos tecnológicos.

El Instituto Europeo para la Igualdad de Género también lo considera así e incluye estas creaciones en su informe sobre ciberviolencia contra las mujeres como una forma más de agresión machista.

La normativa va muy por detrás de los avances tecnológicos que hacen posibles las creaciones deepfake. La regulación de la inteligencia artificial (AI Act) de la Comisión Europea aún es una propuesta y en España está pendiente el desarrollo de la agencia estatal para la supervisión de la inteligencia artificial. “La tecnología, una vez desarrollada, no hay quien la pare. La podemos regular, atemperar, pero llegamos tarde”, advierte Felipe Gómez-Pallete, presidente de Calidad y Cultura Democráticas.

Algunas empresas se han adelantado para evitar ser parte de actos delictivos. Dall-e, una de las aplicaciones de creación digital, advierte que ha “limitado la capacidad para generar imágenes violentas, de odio o adultas” y ha desarrollado tecnologías para “evitar generaciones fotorrealistas de rostros de individuos reales, incluidos los de figuras públicas”. También lo hacen otras populares aplicaciones de inteligencia artificial para creaciones audiovisuales o de reproducción de vídeos. Un grupo de 10 empresas ha firmado un catálogo de directrices sobre cómo construir, crear y compartir contenidos generados por IA de forma responsable. Pero otras muchas saltan a sencillas aplicaciones móviles o campan libremente por la red, incluidas algunas expulsadas de sus servidores originales, como la que se popularizó con el lema “Desnuda a tu amiga”, y se refugian en otras plataformas de código abierto o de mensajería.

El problema es complejo porque en él confluyen la libertad de expresión y creación con la protección de la intimidad y la integridad moral. “El derecho no regula una tecnología, sino lo que se puede hacer con la tecnología”, advierte Borja Adsuara, profesor universitario y experto en derecho digital, privacidad y protección de datos. “Solo cuando una tecnología únicamente pueda tener un uso malo se puede prohibir. Pero el único límite a la libertad de expresión y de información es la ley. No hay que prohibir una tecnología porque puede ser peligrosa. Lo que hay que perseguir son los malos usos”, añade.

Fotograma del vídeo de QTCinderella con el que la creadora de contenidos denuncia haber sido víctima de un vídeo falso pornográfico.

La resurrección virtual de Lola Flores

En este sentido, Lorenzo Dami identifica usos positivos y negativos de esta tecnología. Entre los primeros destaca su utilización para producciones audiovisuales, una mejor interacción entre máquinas y humanos, expresión creativa (incluida la satírica), aplicaciones médicas, cultura y educación. Un ejemplo ha sido la viralizada resurrección virtual de Lola Flores para una campaña de publicidad, que se realizó con consentimiento de sus descendientes.

En el otro lado de la balanza se encuentran las creaciones hiperrealistas para extorsión sexual, injuria, venganza pornográfica, intimidación, acoso, fraude, desacreditación y falseamiento de la realidad, daño reputacional y atentados de índole económica (alterar mercados), judicial (falsear pruebas) o contra la democracia y la seguridad nacional.

Sobre este último aspecto, Venkatramanan Siva Subrahmanian, profesor de ciberseguridad y autor de Deepfakes y conflictos internacionales, advierte: “La facilidad con la que se pueden desarrollar, así como su rápida difusión, apuntan hacia un mundo en el que todos los Estados y actores no estatales tendrán la capacidad de desplegar creaciones audiovisuales hiperrealistas en sus operaciones de seguridad e inteligencia”, advierte.

En este sentido, Adsuara cree que “más peligroso” que la falsa pornografía, pese a su mayoritaria incidencia, es el potencial daño a los sistemas democráticos: “Imagine que a tres días de las elecciones aparece un vídeo de uno de los candidatos diciendo una barbaridad y no hay tiempo para desmentirlo o, aunque se desmienta, es imparable la viralidad. El problema de los deepfakes, como ocurre con los bulos, no es solo que son perfectos para que parezcan verosímiles, sino que la gente se los quiere creer porque coinciden con su sesgo ideológico y los redifunde sin contrastar, porque les gustan y quieren pensar que es verdad”.

Regulación

La regulación actual, según el letrado, se fija en el resultado de las acciones y la intención del delincuente. “Si la escena nunca ha existido porque es falsa, no se está descubriendo un secreto. Habría que tratarlo como un caso de injurias o como delito contra la integridad moral al difundirlo con intención de humillar públicamente a otra persona”, explica.

“La solución podría estar”, añade Adsuara, “en aplicar una figura prevista en los casos de menores y que es la pseudopornografía infantil”. “Esto permitiría que los delitos contra la intimidad no incluyeran solo los vídeos reales, sino también los realistas con imágenes íntimas que se parezcan a las de una persona”.

También se pueden aplicar sistemas tecnológicos de identificación, aunque cada vez es más difícil porque la inteligencia artificial también desarrolla fórmulas de eludirlos.

Otra vía es exigir que cualquier tipo de contenido hiperrealista esté claramente identificado como tal. “Está en la carta de derechos digitales, pero todavía no se ha aprobado el reglamento de inteligencia artificial”, explica el abogado.

En España es habitual este tipo de identificación en los casos de pornografía falseada para evitar problemas legales. “Pero estas mujeres”, advierte Adsuara, “tienen que soportar que su imagen se fusione en un contexto pornográfico y va contra su derecho a la propia imagen: aunque no sea real, sí es realista”.

Pese al evidente daño de estos vídeos, las denuncias en España son escasas frente a las registradas en Estados Unidos, el Reino Unido o Corea del Sur, aunque la proliferación de estos vídeos es proporcionalmente similar. El experto español en derecho digital cree que se le da menos importancia al ser evidente su falsedad y porque la denuncia en ocasiones solo sirve de altavoz para el delincuente, que busca precisamente eso. “Además”, lamenta, “esta sociedad está tan enferma que no lo percibimos como malo y, en vez de defender a la víctima, se la humilla”.

Josep Coll, director de RepScan, una empresa dedicada a eliminar la información perjudicial en internet, también confirma la escasez de denuncias por parte de personajes públicos afectados por vídeos falsos. Sin embargo, sí señala que abordan muchos intentos de extorsión con ellos. Relata el caso de un empresario de quien difundieron un vídeo falso e incluyeron imágenes de un país al que había ido recientemente para sembrar las dudas entre aquellos de su círculo que conocían que el viaje se había producido. “Y de pornovenganza”, comenta. “De esos nos entran casos todos los días”. “En los casos de extorsión, buscan la reacción en caliente, que paguen por su retirada, aunque sepan que es falso”, añade.

Puedes escribirnos a rlimon@elpais.es, seguir a EL PAÍS TECNOLOGÍA en Facebook y Twitter y apuntarte aquí para recibir nuestra newsletter semanal.

Seguir leyendo

]]>
Luis Sevillano
<![CDATA[La OMS lanza Sarah, un avatar de inteligencia artificial sobre temas de salud]]>https://elpais.com/tecnologia/2024-04-02/la-oms-lanza-sarah-un-avatar-de-inteligencia-artificial-sobre-temas-de-salud.htmlhttps://elpais.com/tecnologia/2024-04-02/la-oms-lanza-sarah-un-avatar-de-inteligencia-artificial-sobre-temas-de-salud.htmlTue, 02 Apr 2024 16:43:42 +0000Más de la mitad de la población consulta temas de salud en internet, según una encuesta de las Sociedades de Medicina de Familia y Comunitaria (semFYC), para encontrar explicaciones a síntomas, molestias, diagnósticos, medicamentos, vacunas, tratamientos y estilos de vida, entre otras cosas. Este filón lo quieren explotar las empresas tecnológicas, que ya disponen de asistentes médicos de inteligencia artificial. Pero estos servicios, más enfocados a profesionales, deja en manos de los recursos gratuitos una información sobre la que María del Campo, integrante de la semFYC, destaca la importancia de que “existan mecanismos de búsqueda de información médica depurada”. La Organización Mundial de la Salud (OMS) ha intentado, con muchas deficiencias, según las primeras experiencias, aportar su parte con un chat de inteligencia artificial sobre salud, Sarah, que acaba de lanzar.

Sarah son las siglas de Smart AI Resource Assistant for Health (Asistente inteligente de recursos de IA para la salud) y es un avatar que ya se probó durante la pandemia con otro nombre (Florence), pero que resurge con un nuevo modelo de lenguaje y tecnología y, por ahora, en ocho idiomas, incluido el español.

Sarah responde con la empatía mínima cuestiones muy generales y siempre recomienda acudir al médico. Se le presupone capacitada para proporcionar información sobre los principales temas de salud, pero en las pruebas realizadas en estos primeros pasos, ha fracasado a la hora de aportar enlaces a información médica más concreta y se ha limitado a ofrecer recomendaciones muy generales o un listado básico de síntomas vinculados a algunas dolencias. Tampoco puede visualizar imágenes.

Pero, a pesar de las deficiencias en este lanzamiento, la OMS no quiere perder el tren de la inteligencia artificial en el ámbito que le corresponde o dejarlo a empresas con intereses económicos y comerciales. “El futuro de la salud es digital y apoyar a los países para que aprovechen el poder de las tecnologías digitales para la salud es una prioridad”, ha explicado en una nota Tedros Adhanom Ghebreyesus, director general de la OMS.

“Sarah nos da una idea de cómo la inteligencia artificial podría utilizarse en el futuro para mejorar el acceso a la información sanitaria de una manera más interactiva”, asegura para admitir las deficiencias del sistema actual. En este sentido, el director de la OMS pide “a la comunidad investigadora ayuda para continuar explorando cómo esta tecnología podría reducir las desigualdades y ayudar a las personas a acceder a información de salud actualizada y confiable”. Como todo sistema de inteligencia artificial, Sarah aspira a crecer con la interacción humana.

Del Campo, durante la semana del autocuidado de hace dos años, destacó que la alta frecuencia de búsquedas de temas de salud “indican que existe una preocupación a la que debemos dar respuesta”, pero también advirtió de la importancia de “acompañar al paciente en el cribado de información”.

Tampoco elude la OMS las dificultades de este tipo de herramientas para asegurar un acceso equitativo, privacidad, seguridad, precisión, la ausencia de prejuicios y la protección de datos.

“Los desarrolladores, los responsables políticos y los proveedores de atención médica deben abordar estas cuestiones éticas y de derechos humanos al desarrollar e implementar la IA para garantizar que todas las personas puedan beneficiarse de ella”, asegura la OMS.

La advertencia de la organización mundial se refiere al asalto de las grandes tecnológicas a las consultas para llevar sus máquinas conversacionales al ámbito de la asistencia primaria, pero siempre, dicen, como herramienta de apoyo, copiloto del médico y posible solución al colapso de la atención. A estos servicios acuden al menos una vez al año el 81,4% de las mujeres y el 72,3% de hombres, según el Instituto Nacional de Estadística.

IBM dispone de Watson Health, un robot conversacional disponibles a cualquier hora, que recopila información básica y alerta de posibles alteraciones que precisan atención adicional.

Microsoft desarrolla en el ámbito profesional Azure Health Bot, un sistema conversacional basado en información médica, protocolos de clasificación y modelos de lenguaje entrenados para comprender la terminología clínica.

Google también ha entrado en este mercado con la familia de modelos integrada en MedLM. Greg Corrado, jefe de Inteligencia Artificial para la Salud en la multinacional, destaca las herramientas de análisis de imágenes radiográficas y AMIE, una aplicación “optimizada para el razonamiento diagnóstico y la conversación que emula las interacciones entre el paciente y el cuidador”.

El avatar lanzado por la OMS ha sido creado por Soul Machines con el apoyo de Rooftop y, pese a que advierte que no puede acceder a imágenes, exige acceso al micrófono y la cámara “para mejorar la experiencia conversacional”. La organización asegura que “todos los datos recopilados se anonimizan y cumplen con las prácticas y regulaciones de privacidad vigentes”.

La OMS advierte que “es posible que las respuestas no siempre sean precisas porque se basan en patrones y probabilidades en los datos disponibles”. En este sentido, la organización avisa que no se hace responsable de ningún contenido de conversación creado por la IA generativa ni este “representa o comprende los puntos de vista o creencias de la OMS”. La advertencia final al usuario es determinante: “Usted entiende y acepta que no debe confiar en las respuestas generadas como única fuente de información veraz o fáctica, ni como sustituto del asesoramiento profesional”.

Puedes seguir a EL PAÍS Tecnología en Facebook y X o apuntarte aquí para recibir nuestra newsletter semanal.

Seguir leyendo

]]>
<![CDATA[Una aplicación permite diseñar rutas ajenas a los circuitos turísticos masivos y que recorren miles de años de historia]]>https://elpais.com/tecnologia/2024-03-26/una-aplicacion-permite-disenar-rutas-ajenas-a-los-circuitos-turisticos-masivos-y-que-recorren-miles-de-anos-de-historia.htmlhttps://elpais.com/tecnologia/2024-03-26/una-aplicacion-permite-disenar-rutas-ajenas-a-los-circuitos-turisticos-masivos-y-que-recorren-miles-de-anos-de-historia.htmlTue, 26 Mar 2024 04:20:00 +0000Una imagen de un olivar, un cortijo, una zona montañosa o un atardecer en la costa no es un paisaje, es una miniatura, una mínima expresión de algo complejo. El paisaje es una parte del territorio donde la percepción y la interacción humana con el mismo definen qué y por qué somos, hemos sido y seremos. Una simple ruta desde el Monasterio de La Cartuja en Sevilla hasta la cercana localidad de Valencina permite recorrer más de 4.000 años de historia, desde el arte contemporáneo hasta la prehistoria. Reflejar esta complejidad en una aplicación web ha sido el reto, monumental en todos sus sentidos, del Laboratorio de Redes de Patrimonio, Turismo y Paisaje, de la Escuela de Arquitectura (ETSA) de la Universidad de Sevilla, un grupo de investigación que ha creado el primer desarrollo de una herramienta (VIDA HTL) para que el usuario cree itinerarios que pasan inadvertidos por encontrarse fuera del circuito turístico urbano y masivo.

“El territorio no es un plano”, resume Mercedes Linares, coinvestigadora del laboratorio HTL, siglas de Heritage Tourism Landscapes (Patrimonio Turismo Paisajes). Con esa premisa básica y compleja, el grupo universitario de 21 integrantes lleva trabajando años en el proyecto Smarch (acrónimo de smart architectural and archeological heritage o patrimonio arquitectónico y arqueológico inteligente), un trabajo que permite vincular a especialistas tecnológicos con otros relacionados con los bienes culturales. De esta relación nace hace dos años el proyecto de desarrollador virtual, la aplicación que permite aplicar los resultados de esa interacción y traspasarla a los usuarios.

La iniciativa es una emulsión de turismo y cultura nacida de la enorme riqueza de ambos aspectos y de la situación que afrontan. “En algunas grandes capitales, el turismo masivo es desmesurado. Nosotros llevamos años trabajando en el patrimonio vinculado al paisaje, en diversificar el turismo y llevarlo a donde existe un enorme patrimonio desconocido que, además, permite explicar dinámicas históricas”, explica Antonio Tejedor, investigador principal del proyecto.

La misión final del trabajo es que el resultado sea un dinamizador, un “activador del patrimonio”, algo que, según relata Tejedor, “sea un factor de calidad, de identidad, de valor económico”.

Pantalla inicial de Vida HTL.

La financiación inicial (unos 85.000 euros del Ministerio de Ciencia y los fondos Next Generation de la UE) ha obligado a delimitar en el espacio (73 municipios del bajo Guadalquivir) y en desarrollo tecnológico este primer germen de una herramienta que, hoy, es un demostrador que aspira a extenderse con la colaboración de administraciones y universidades. La aplicación es gratuita y el grupo está abierto a compartir su experiencia. “Somos universitarios, profesores. Nuestro interés es la investigación”, comenta el arquitecto para descartar un interés comercial en el proyecto.

De esa colaboración dependerá también que la herramienta, accesible ahora solo a través del ordenador, dé el salto al móvil. “Es un trabajo arduo que requerirá una financiación extra porque el móvil no te permite ver simultáneamente las capas de información”, justifica el investigador principal.

La aplicación tiene otra singularidad relevante frente a otras con objetivos parecidos: es colaborativa. El usuario es parte de la misma y no solo por la capacidad de diseñar sus propias rutas. Quien se registre pasa a formar parte del entramado para aportar propuestas, sugerencias, advertir deficiencias, incluir servicios complementarios al itinerario o incluso programar eventos relacionados. De esta forma se cierra el círculo y el patrimonio vuelve a ser de su valedor principal, la persona.

La aplicación contiene ya el registro de un millar de bienes culturales —arquitectónicos (el 80%), arqueológicos e infraestructuras— cuyas fichas se han simplificado para favorecer la navegación y adaptarlas a las necesidades del usuario más común. Y sigue creciendo. La falta de información sobre caminos ajenos a las vías principales de comunicación se está solventando y la lista de patrimonio de la zona se completa de forma constante.

La página principal de Vida HTL arranca con un mapa que localiza todos los bienes patrimoniales incluidos en la zona, que abarca Sevilla, Huelva, Cádiz y un municipio de Córdoba. La búsqueda avanzada permite seleccionar los bienes por municipio, tipo, periodo histórico, uso, estado de conservación o accesibilidad.

El usuario puede optar por una de las rutas ya elaboradas o diseñar la propia. Cada uno de los bienes cuenta con una ficha específica y permite acceder a una web con información más detallada sobre el patrimonio, conocer las opiniones de los usuarios e ir creando un espacio personal con las preferencias personales.

Rutas ya definidas en la herramienta Vida HTL.

La propuesta forma parte de las últimas tendencias de aproximación al patrimonio. Xiang Zhoy, autor principal de un estudio publicado en Landscape Architecture Frontiers, destaca que lo que él denomina “corredores patrimoniales” suponen un “método de conservación sistemática de los recursos históricos, culturales y paisajísticos” que, además, “proporciona al público espacios lineales continuos para actividades de recreación”.

“La mayoría de los estudios tradicionales sobre la planificación de rutas de corredores patrimoniales se centran en el análisis de las condiciones espaciales físicas, ignorando la percepción y los mecanismos de participación pública”, comenta Xiang Zhoy, quien aboga por la “integración efectiva de los recursos del paisaje con los comportamientos recreativos públicos y la percepción espacial en el proceso de planificación de rutas”.

La incorporación o adaptación de tecnologías con la experiencia patrimonial también es un aspecto clave. Tobias Höllerer, uno de los directores de Four Eyes Lab, defiende que los efectos de las aplicaciones continúan después de que se hayan desactivado los dispositivos: “La tecnología aumenta las capacidades humanas de los usuarios: conciencia, nuevas habilidades, nuevas actitudes, nuevas mentalidades. Incluso cuando la tecnología se apaga, solo porque las personas la hayan experimentado, puede ayudar a la humanidad de los humanos”.

Puedes seguir a EL PAÍS Tecnología en Facebook y X o apuntarte aquí para recibir nuestra newsletter semanal.

Seguir leyendo

]]>
paco puentes
<![CDATA[Las tecnológicas preparan el asalto a la atención primaria]]>https://elpais.com/tecnologia/2024-03-22/las-tecnologicas-preparan-el-asalto-a-la-atencion-primaria.htmlhttps://elpais.com/tecnologia/2024-03-22/las-tecnologicas-preparan-el-asalto-a-la-atencion-primaria.htmlFri, 22 Mar 2024 04:20:00 +0000“Me duele la cabeza y la barriga. He tenido diarrea”, escribe en ChatGPT y Gemini Raquel Jiménez, estudiante de 18 años que cursa el último curso de Bachillerato en un instituto de Sevilla. Cree que los exámenes y la proximidad de las pruebas de acceso a la universidad le están generando malestar, pero la cita médica más próxima que le ofrecen es para dentro de 15 días. “Lamento que no te sientas bien”, responden ambas plataformas antes de resumir posibles causas, proponer remedios y recomendar ir al médico si los síntomas persisten. Las dos plataformas, en sus versiones más básicas, ofrecen un poco de empatía, posibles diagnósticos y sugerencias de tratamiento. Las grandes tecnológicas están perfeccionando estos sistemas para asaltar las consultas y llevar sus máquinas conversacionales al ámbito de la asistencia primaria, pero siempre, dicen, como herramienta de apoyo, copiloto del médico y posible solución al colapso de la atención primaria.

La inteligencia artificial ha demostrado una enorme eficacia en prácticas médicas concretas. “LucidWave [un programa de inteligencia artificial (IA)] permite disponer en cualquier parte, con tecnología portátil e inalámbrica, de imágenes médicas por ultrasonido, procesar los datos y proporcionar un diagnóstico previo al del médico”, explica el belga Bart van Duffel, miembro del proyecto y director de innovación en la Universidad Católica de Lovaina. En el último congreso internacional de la Sociedad Española de Medicina Preventiva, Salud Pública y Gestión Sanitaria (Sempspgs), varios hospitales presentaron aplicaciones ya en marcha para la gestión de enfermedades de declaración obligatoria (Reina Sofía de Córdoba), vigilancia de infecciones hospitalarias (Universitario de Ourense) y protésica de cadera (Jiménez Díaz) o registro de tumores.

Pero estas aplicaciones son usos avanzados en áreas concretas. Las grandes tecnológicas quieren ir más allá y llegar al principio del sistema sanitario e instalarse en la atención primaria, a la que acude al menos una vez al año el 81,4% de las mujeres y el 72,3% de hombres, según el Instituto Nacional de Estadística.

Una revisión de 53 investigaciones sobre el impacto de la IA destaca el valor de las herramientas de apoyo a las decisiones para ayudar a mejorar la detección de errores y la gestión de medicamentos. IBM, que dispone de Watson Health, resalta que recursos como los robots conversacionales están disponibles a cualquier hora, recopilan información básica y alertan de posibles alteraciones que precisan atención adicional.

Microsoft desarrolla en el ámbito profesional Azure Health Bot, un sistema conversacional basado en información médica, protocolos de clasificación y modelos de lenguaje entrenados para comprender la terminología clínica.

Google también ha entrado en este mercado con la familia de modelos integrada en MedLM. Greg Corrado, jefe de Inteligencia Artificial para la Salud en la multinacional, destaca las herramientas de análisis de imágenes radiográficas y AMIE, una aplicación “optimizada para el razonamiento diagnóstico y la conversación que emula las interacciones entre el paciente y el cuidador”.

Miguel Ángel Mayer, especialista en Medicina Familiar y Comunitaria y autor de un artículo publicado en Atención Primaria, considera que, “si bien es cierto que la IA ofrece múltiples oportunidades y su futuro parece prometedor, presenta diversos desafíos en su aplicación, en especial en medicina”.

Ventajas y desafíos

Entre las ventajas, Mayer destaca su capacidad para automatizar procesos administrativos y facilitar la toma de decisiones al aunar diferentes fuentes de datos, desde las características del paciente, sus síntomas y los medicamentos que toma hasta los resultados de pruebas o datos genéticos. “Pueden ayudar a generar sugerencias diagnósticas y terapéuticas, además de desempeñar un papel muy importante en el manejo de las enfermedades crónicas”, escribe.

Pero el especialista señala algunas limitaciones. La primera es la calidad de los datos que alimenten el sistema. Sharavya Shetty investigadora de Google, ha observado esta deficiencia durante el desarrollo de una IA para soluciones dermatológicas: “Muchos conjuntos de datos se recopilan en entornos clínicos, lo que significa que podrían incluir cánceres de piel y afecciones más graves, pero carecen de representación de preocupaciones más comunes como, por ejemplo, una reacción alérgica”. Para solventar esta deficiencia, han recurrido a la Universidad de Stanford con el fin de construir un banco de imágenes que incluyen vello, uñas, tonos de piel, edad o sexo de la mayor diversidad poblacional posible.

Mayer también advierte de la deshumanización de la medicina si el peso de la tecnología es excesivo. Corrado también afirma haber considerado esta limitación en sus desarrollos: “La empatía es una parte fundamental de la medicina y, por lo tanto, diseñamos este modelo [AMIE] para comunicarse con respeto, explicar las cosas con claridad y apoyar al individuo en su proceso de toma de decisiones”.

Un desafío más son las alucinaciones, las respuestas falsas con apariencia de veracidad que pueden aportar los sistemas de IA por la deficiencia de los datos que le sirven de base o por errores en la generación de la solución.

José Ruipérez es médico de atención primaria y acepta con buen ánimo las propuestas de robots conversacionales en su consulta, donde puede dedicarle entre seis y 10 minutos a medio centenar de pacientes diarios: “El robot puede ir recopilando información antes de la consulta presencial e incorporar los datos de análisis, electrocardiogramas o información relevante del paciente. Eso nos permitiría optimizar el tiempo que les podemos dedicar. Pero la exploración no la va a hacer y tampoco va a mirar a los ojos al paciente. Algunos enfermos más familiarizados con la tecnología podrán recurrir a estas herramientas, pero los más mayores quieren y necesitan el trato personal”.

En este sentido, las tecnológicas insisten una y otra vez en que sus desarrollos no son sustitutivos sino complementarios. Corrado es tajante: “No estamos hablando de dar consejos, no estamos hablando de tomar una decisión o compartir un resultado o algo por el estilo. Estamos hablando de la parte de la conversación donde el médico recopila información y te pregunta sobre lo que te está pasando. Podemos explorar cómo lo hacemos en términos de ser serviciales, empáticos y útiles para las personas”.

Puedes seguir a EL PAÍS Tecnología en Facebook y X o apuntarte aquí para recibir nuestra newsletter semanal.

Seguir leyendo

]]>
<![CDATA[La doble moral de la ‘dark web’ incluye colectas benéficas mientras roban, extorsionan y secuestran]]>https://elpais.com/tecnologia/2024-03-11/la-doble-moral-de-la-dark-web-incluye-colectas-beneficas-mientras-roban-extorsionan-y-secuestran.htmlhttps://elpais.com/tecnologia/2024-03-11/la-doble-moral-de-la-dark-web-incluye-colectas-beneficas-mientras-roban-extorsionan-y-secuestran.htmlMon, 11 Mar 2024 04:20:00 +0000En la dark web se contratan asesinatos, se comercia con armas ilegales y drogas, se distribuye pornografía infantil, se roba, secuestra y extorsiona o se destruyen infraestructuras. Es el mundo más oculto de internet. Pero incluso en este fango más espeso, en esta sociedad del crimen, hay normas y reglas. “Tienen su moral, aunque no hay que olvidar nunca que son criminales”, advierte Sergey Shaykevich, director del Grupo de Amenazas de Check Point durante el encuentro de la multinacional de ciberseguridad CPX Viena (Austria). La misma prolífica delincuencia de la web —”El 84% de las estafas son por internet”, según Juan Salom Clotet, coronel jefe de la Unidad de Coordinación de Ciberseguridad de la Guardia Civil— organiza colectas benéficas, celebra festivos, establece objetivos invulnerables, reprocha comportamientos inapropiados y tiene su propio sistema judicial.

A la web más conocida, la abierta, se accede con los navegadores más populares y, aunque parezca inmensa, como la superficie del mar, es solo el 5% de internet. Debajo se encuentran las aguas profundas, la deep web, que representa el resto de la red y aloja la información que no debe ser accesible o no se quiere que lo sea.

Marc Rivero, investigador (Lead Security Researcher) de Kaspersky, explica que “la deep web abarca cualquier parte que no está indexada por los motores de búsqueda tradicionales, incluidos sitios que requieren autenticación y contenido privado. Por el contrario, la dark web es un subconjunto específico de la deep web que se caracteriza por el uso de redes anónimas para ocultar la identidad del usuario y la ubicación del sitio web. A menudo se asocia con actividades ilegales”.

“En la deep web hay usos legítimos y no tan legítimos. Por un lado, hay espacios de comunicación, como plataformas de denuncia que permiten compartir información de forma segura en algunos países, redes sociales anónimas libres y sin censura, y grupos de apoyo para personas con problemas. También proporciona acceso a información restringida, como documentos académicos o gubernamentales no disponibles públicamente, así como foros especializados que facilitan el intercambio de conocimiento entre expertos en temas específicos. Además, se utiliza para el entretenimiento y el ocio, con mercados de contenido digital que ofrecen acceso anónimo a libros, música, películas y otros recursos, así como juegos de azar online que permiten jugar sin restricciones legales o geográficas, y comunidades de intereses específicos que conectan a personas con aficiones poco comunes”, añade Rivero.

La zona béntica de este océano de datos, la más profunda, es una mínima parte, pero aloja un entramado criminal que, según María Jesús Almanzor, consejera delegada de Ciberseguridad y Nube en Telefónica Tech, lanza cada día “90 millones de ciberataques en el mundo que suponen un coste de 10,5 billones de euros”. “Si el cibercrimen fuera un país, sería la tercera economía mundial, solo por detrás de EE UU y China”, advierte.

Esta zona es la que investiga Sergey Shaykevich “con ordenadores separados de la empresa [de ciberseguridad para la que trabaja] y con todas las medidas de precaución posibles”, según explica. Este trabajo es fundamental porque es ahí donde se desarrollan, venden y distribuyen la mayoría de los programas maliciosos.

Distribución de un programa malicioso en un foro de la 'dark web'.

Para entrar en esas dos capas (profunda y oscura) se utilizan navegadores como Tor, Subgraph, Waterfox, I2P - Invisible Internet Project. El nombre de TOR, el más popular, son las siglas de The Onion Router y su alusión a la cebolla (onion) sirve para explicar su funcionamiento: el navegador se conecta aleatoriamente a un nodo de entrada conocido para acceder al circuito Tor, compuesto por nodos intermedios a los que llega la información cifrada por capas para alcanzar finalmente el servidor final. Su uso es fácil y, en todo momento, el tráfico intermedio es anónimo y no se puede rastrear. Sus puntos más vulnerables son las puertas de entrada y salida.

“Tor no fue diseñado para la criminalidad”, según recuerda Deepan Ghimiray en Avast, pero la delincuencia tardó poco en aprovechar sus ventajas. Silk Road (Ruta de la seda) fue uno de esos mercados de la web oscura que se lanzó en 2011 y lo cerró el FBI dos años después. Su creador, Ross Ulbricht, alias Dread Pirate Roberts, cumple cadena perpetua por blanqueo de capitales, secuestro de ordenadores y conspiración por tráfico de narcóticos.

“Acceder a la dark web puede no ser difícil en términos técnicos, ya que simplemente requiere descargar e instalar un navegador especializado. Sin embargo, es importante tener en cuenta que no es un espacio seguro. Al navegar por ella, te expones a una serie de riesgos, como malware que puede infectar un dispositivo con virus o ransomware. También hay muchas estafas en la dark web, por lo que es importante ser cauteloso, comprender los riesgos involucrados y tomar precauciones para protegerse, como la instalación de una solución de seguridad de confianza, un firewall [cortafuegos] y utilizar una VPN para proteger la privacidad”, advierte Rivero, investigador de Kaspersky.

Exámenes y entrevistas para ser delincuente

Shaykevich explica que, una vez dentro, pasar a las cloacas de la web exige “una invitación o aval de un miembro consolidado de las mafias criminales o ser sometido a una investigación de los integrantes de estas”.

Rivero precisa estas premisas: “Algunos foros son públicos y permiten que cualquiera se registre, mientras que otros son más exclusivos y requieren un proceso de selección más estricto. En general, se utilizan métodos como la invitación por parte de miembros existentes o administradores, donde se confía en la recomendación de personas ya dentro de la comunidad. Además, algunos foros pueden requerir que los usuarios completen un formulario de solicitud o pasen por una entrevista para evaluar su idoneidad. Otros pueden pedir que se demuestren su conocimiento en un tema específico a través de exámenes o publicaciones de prueba, o que sean recomendados por usuarios con buena reputación en la dark web”.

Si se superan estos filtros, el submundo de internet es sorprendentemente parecido al superficial. “Disponen de chats [aplicaciones de conversación] propios y también usan canales ocultos de Telegram para la contratación de servicios o incluso para publicitar sus logros, exponiendo los nombres de entidades víctimas”, añade el investigador de Check Point.

El especialista de esta última compañía de seguridad detalla que disponen de una especie de sistema arbitral para dirimir las disputas entre usuarios, como la que dio al traste con la mayor organización de extorsiones (LockBit) por discrepancias en el reparto del rescate de un secuestro. En los foros, hubo un primer juicio, una apelación y una condena final. “Tras esta, es muy difícil que se vuelva a trabajar con ellos porque pierden la reputación y esta es lo más importante en la dark web”, comenta.

En ese submundo hay de todo y es posible hallar los datos de cualquier usuario habitual de la internet superficial (Google One permite conocer si sus cuentas se han visto comprometidas o figuran en la red oscura). Las páginas no son sofisticadas: no hace falta estrategia de mercado. Y también disponen de foros y aplicaciones de conversación propias del mundo cotidiano.

Shaykevich recuerda el caso de Conti, un grupo de secuestro y extorsión supuestamente disuelto tras una filtración, que llegó a contar “con una estructura de 200 personas y oficinas físicas en Moscú”. “Analizamos los chats que se filtraron y había desde avisos de puertas recién pintadas, para que no las tocaran los usuarios, hasta peticiones para dejar de hablar de malware [programas maliciosos] en la cafetería del edificio”.

“El mundo oscuro no es tan diferente del mundo real”, añade. “Celebran fiestas, paran por vacaciones e incluso hacen colectas para orfanatos. Hay seres humanos detrás; delincuentes, pero tienen hijos y algunos de ellos se consideran morales. Algunos grupos de ransomware se comprometen a no atacar hospitales y vetan cualquier agresión a países que formaban la antigua Unión Soviética”. “Pero hay que recordar”, insiste el investigador, “que son criminales”.

Los ataques a instituciones como hospitales están entre las operaciones peor consideradas en un mundo donde se publican los éxitos de robos y secuestros como parte de la estrategia publicitaria. “Ser un hacker es un verdadero negocio y no hay integridad. Persiguen a la gente, secuestran y extorsionan. Pero cuando se hace contra un hospital, es lo más terrible del mundo porque puedes matar a alguien por dinero”, comenta Francisco Criado, uno de los vicepresidentes de Check Point, de nacionalidad norteamericana con padres de origen latino.

Puedes seguir a EL PAÍS Tecnología en Facebook y X o apuntarte aquí para recibir nuestra newsletter semanal.

Seguir leyendo

]]>
Check Point
<![CDATA[La ley de inteligencia artificial abre una brecha entre las grandes empresas preparadas y las que recurren a código abierto ]]>https://elpais.com/tecnologia/2024-03-20/la-ley-de-inteligencia-artificial-abre-una-brecha-entre-las-grandes-empresas-preparadas-y-las-que-recurren-a-codigo-abierto.htmlhttps://elpais.com/tecnologia/2024-03-20/la-ley-de-inteligencia-artificial-abre-una-brecha-entre-las-grandes-empresas-preparadas-y-las-que-recurren-a-codigo-abierto.htmlWed, 20 Mar 2024 04:20:00 +0000La inteligencia artificial (IA) deja de ser un territorio sin ley. La aprobación de la norma europea (AI Act) se aplicará gradualmente en los próximos dos años a todo sistema que se utilice en la UE o afecte a sus ciudadanos y será de obligado cumplimiento para proveedores, implementadores o importadores. En este sentido, la ley abre una brecha entre las grandes empresas, que ya han previsto las limitaciones a sus desarrollos, y las entidades menores que quieran desplegar modelos propios a partir de las crecientes aplicaciones de código abierto (open source). Estas últimas, si no tienen capacidad de examinar sus sistemas, dispondrán de entornos de pruebas reglamentarios (sandboxes) para desarrollar y entrenar la IA innovadora antes de su introducción en el mercado. Pero su disponibilidad abre interrogantes sobre la capacidad de controlar sus usos, extendidos en la creación de pornografía no consentida y en campañas de fraude.

“Nos aseguramos de que la tecnología de IA que creamos se hace de forma responsable y ética desde el principio. IBM ha estado trabajando con organismos gubernamentales de todo el mundo para fomentar regulaciones inteligentes y efectivas, así como para proporcionar barreras de seguridad para la sociedad”, asegura Christina Montgomery, vicepresidenta y directora de Privacidad y Confianza en la multinacional.

Pilar Manchón, directora de estrategia de investigación en IA de Google y consejera del comité de asesoramiento del Gobierno español, coincide con esta apreciación durante un encuentro en la Universidad de Sevilla. “Necesitamos regulación porque la IA es demasiado importante para no tenerla. Hay que desarrollar la inteligencia artificial, pero hay que hacerlo bien”. La investigadora sintetiza las premisas incluidas en el AI Principles: “Es muy fácil de resumir: no hagas cosas malas, haz cosas buenas, y si vas a hacer algo, asegúrate de que va a tener un impacto positivo en la comunidad, en la sociedad, en la comunidad científica. Y, si potencialmente puede hacer algo que no es para lo que lo usaste o para lo que lo diseñaste, asegúrate de tomar todas las precauciones necesarias y mitigar los riesgos. Haz el bien, innova, sé audaz, pero de forma responsable”.

La integrante de Google afirma que en esta visión coinciden otras multinacionales. En este sentido, el presidente de Microsoft, Brad Smith, afirmaba en una reciente entrevista en EL PAÍS: “Necesitamos un nivel de regulación que garantice la seguridad”. Brad defiende que la ley europea lo hace al “examinar los estándares de seguridad e imponer una base para estos modelos”.

Del mismo modo piensa Jean-Marc Leclerc, jefe de Gobierno y Asuntos Reguladores de la UE para IBM, quien avala la ley europea, pide que se extienda y destaca el establecimiento de entidades oficiales que velen por la implementación ética de los sistemas, como prevé la regulación. Pero advierte: “Muchas de las organizaciones que pueden estar en el ámbito de aplicación de la ley de IA no han establecido la gobernanza en sus infraestructuras para respaldar el cumplimiento de la norma en sus procesos”.

La cautela de IBM responde a la proliferación de herramientas de código abierto, más baratas cuando no gratuitas y también eficaces. Pese a sus limitaciones para ser entrenadas, empiezan a acercarse a los desarrollos de las grandes compañías y se ofrecen libremente. El pasado mayo, un escrito de un ingeniero de Google que esta compañía no considera oficial sino la opinión particular del investigador, advertía de que la IA estaba escapando del control de las grandes empresas.

La empresa emergente Hugging Face lanzó hace un año una alternativa a ChatGPT, la popular aplicación conversacional de OpenAI, con código abierto. “Nunca abandonaremos la lucha por la IA de código abierto”, tuiteó Julien Chaumond, cofundador de esta empresa. Al mismo tiempo, Stability AI lanzaba su propio modelo e incluso la Universidad de Stanford se sumaba con su sistema Alpaca.

“Es un esfuerzo de la comunidad global para llevar el poder de la inteligencia artificial conversacional a todos, para sacarlo de las manos de unas pocas grandes corporaciones”, dice el investigador de IA y youtuber Yannic Kilcher en un video de presentación de Open Assistant, una de estas plataformas.

Joelle Pineau, directiva de Meta AI y profesora en la Universidad McGill, defiende al MIT Review, los sistemas de código abierto: “Es en gran medida un enfoque de libre mercado, del tipo muévete rápido, construye cosas. Realmente diversifica el número de personas que pueden contribuir al desarrollo de la tecnología y eso significa que no solo los investigadores o empresarios pueden acceder a estos modelos”.

Pero la propia Pineau admite los riesgos de que estos sistemas, si escapan de los criterios éticos y normativos que establece la ley, favorezcan la desinformación, los prejuicios y los discursos de odio o sirvan para fabricar programas maliciosos. “Hay que hacer un equilibrio entre la transparencia y la seguridad”, reflexiona Pineau.

“No soy una evangelista del código abierto”, dice a la misma publicación Margaret Mitchell, científica de ética de Hugging Face. “Veo razones por las que estar cerrado tiene mucho sentido”. Mitchell señala la pornografía no consentida (“Es uno de los principales usos de la IA para crear imágenes”, admite) como un ejemplo de la desventaja de hacer que los poderosos modelos sean ampliamente accesibles.

En cuanto a la utilización de estos sistemas por parte de ciberatacantes, Bobby Ford, jefe de seguridad de Hewlett Packard Enterprise, advierte durante el encuentro CPX celebrado en Viena: “Mi mayor preocupación en lo que se refiere a la IA generativa es que la adopción de la tecnología por parte del enemigo se produzca a un ritmo más rápido que el nuestro. El adversario tiene mucho tiempo para aprovechar la inteligencia artificial. Si no lo hacemos igual para defendernos de sus ataques, la guerra es asimétrica. Cualquiera con acceso a internet y un teclado puede ser un hacker [pirata informático]”.

Maya Horowitz, vicepresidenta de investigación de la empresa de ciberseguridad Check Point, es más optimista: “Los defensores están usando mejor la inteligencia artificial que los actores de amenazas. Tenemos docenas de motores de seguridad fundamentados en IA mientras los atacantes todavía están experimentando, tratando de entender cómo pueden usarlo. Hay algunas cosas. La más popular es redactar correos electrónicos de phishing [engaño mediante suplantación]. También experimentan con llamadas de voz falsas. Pero aún no están creando códigos maliciosos con esta tecnología. Aún no se le puede pedir a la IA que escriba un código para simplemente usarlo. Tiene que haber un codificador que sepa lo que hace. Creo que nuestro bando está ganando esta vez”.

Puedes seguir a EL PAÍS Tecnología en Facebook y X o apuntarte aquí para recibir nuestra newsletter semanal.

Seguir leyendo

]]>
Andy Kelly
<![CDATA[Diez respuestas sobre la ley europea de inteligencia artificial]]>https://elpais.com/tecnologia/2024-03-14/diez-respuestas-sobre-la-ley-europea-de-inteligencia-artificial.htmlhttps://elpais.com/tecnologia/2024-03-14/diez-respuestas-sobre-la-ley-europea-de-inteligencia-artificial.htmlThu, 14 Mar 2024 04:20:00 +0000Los sistemas y programas de inteligencia artificial (IA) son capaces de realizar tareas propias de la inteligencia humana, como razonar, aprender (machine learning), percibir, comprender el lenguaje natural y resolver problemas. Ya está presente en todos los ámbitos de nuestra vida, desde las aplicaciones habituales de compras o visionado de películas hasta el desarrollo de nuevas fórmulas farmacéuticas o la organización de procesos de producción. Permite automatizar tareas, tomar decisiones, mejorar la eficiencia y aportar soluciones en ámbitos tan diversos como la medicina, la industria, la robótica o los servicios financieros. La ley europea de IA comienza desde ahora a aplicarse gradualmente con el objetivo de garantizar su desarrollo con unos criterios éticos y legales. Estas son 10 respuestas a las dudas que genera una iniciativa pionera en el mundo:

¿Por qué Europa la regula?

La inteligencia artificial aporta beneficios sociales, fomenta el crecimiento económico y mejora la innovación y competitividad. Estas aplicaciones, en general, plantean un riesgo bajo o nulo. Pero otras pueden generar situaciones contrarias a los derechos y libertades, como los usos de inteligencia artificial para generar imágenes pornográficas no deseadas o la utilización de datos biométricos para categorizar a las personas por rasgos de su aspecto o su aplicación en procesos de contratación, educación, asistencia sanitaria o de actuación policial predictiva.

¿Cuáles son las categorías de riesgo?

Riesgo mínimo: En esta categoría están la mayoría de sistemas. Para estas aplicaciones, el proveedor, de forma voluntaria, puede adoptar los requisitos éticos y adherirse a códigos de conducta. Se considera IA de uso general aquella entrenada con una potencia informática de 10²⁵ operaciones de coma flotante por segundo (FLOPS, por sus siglas en inglés). FLOPS es la medida del rendimiento de una computadora y la Comisión considera la mencionada dimensión como el umbral de posibles riesgos sistémicos. La UE considera que ChatGPT-4, de OpenAI, y Gemini, de Google DeepMind, podrían estar en este umbral, que podrá revisarse mediante un acto delegado.

Alto riesgo: Son los modelos que, potencialmente, pueden afectar a la seguridad de las personas o a sus derechos. La lista está abierta a revisión permanente, pero la norma prevé ya ámbitos de aplicación incluidos en esta categoría, como infraestructuras críticas de comunicación y suministro, educación, gestión del personal o acceso a servicios esenciales.

Riesgo inadmisible: Los sistemas que se incluyan en esta categoría están prohibidos porque vulneran los derechos fundamentales. En esta lista están aquellos de clasificación o puntuación social, los que aprovechan la vulnerabilidad de las personas y los de identificación de raza, opinión, creencia, orientación sexual o reacción emocional. Se prevén excepciones para su uso policial con el fin de perseguir 16 delitos concretos relacionados con la desaparición de personas, secuestros, trata y explotación sexual, prevención de amenazas para la vida o la seguridad o respuesta a la amenaza actual o previsible de un ataque terrorista. En caso de urgencia, se puede autorizar un uso excepcional, pero, si se deniega, todos los datos e información tienen que ser suprimidos. En circunstancias no urgentes, ha de ir precedida de una evaluación previa de las repercusiones desde el punto de vista de los derechos fundamentales y debe notificarse a la autoridad de vigilancia del mercado pertinente y a la autoridad de protección de datos.

Riesgo específico para la transparencia: Se refiere a los peligros de manipulación que se generan con bulos de apariencia real (deepfakes) o con aplicaciones conversacionales. La norma obliga a dejar patente de forma inequívoca que el usuario está ante una creación artificial o que se interactúa con una máquina.

Riesgo sistémico: La norma tiene en cuenta que el uso generalizado de sistemas de gran capacidad puede ocasionar daños masivos o de amplio alcance, como el caso de ciberataques o de propagación de un bulo financiero o un sesgo.

¿Quiénes deben someterse a la ley?

Todos los agentes, tanto públicos como privados, que utilicen sistemas de inteligencia artificial dentro de la UE deben someterse a la ley, sean o no europeos. Afecta a los proveedores de programas, a los que los aplican y a quienes los compran. Todos deben velar por que su sistema sea seguro y conforme a la ley. En el caso de sistemas de alto riesgo, antes y después de ser comercializados o puestos en servicio, los sistemas deberán ser sometidos a una evaluación de conformidad para garantizar la calidad de los datos, trazabilidad, transparencia, supervisión humana, exactitud, ciberseguridad y solidez. Esta evaluación debe repetirse si el sistema o su finalidad se modifican sustancialmente. Los sistemas de inteligencia artificial de alto riesgo utilizados por las autoridades o entidades que actúen en su nombre deberán, además, estar registrados en una base de datos pública de la UE, a menos que tales sistemas se empleen a efectos policiales y de migración. Los proveedores de modelos con riesgos sistémicos (potencia informática de más de 10²⁵ FLOPS) tienen la obligación de evaluarlos y mitigarlos, notificar los incidentes graves, llevar a cabo pruebas y evaluaciones avanzadas, garantizar la ciberseguridad y facilitar información sobre el consumo de energía de sus modelos.

¿Qué debe incluir una evaluación de conformidad?

Los procesos, el período y la frecuencia de uso, las categorías de personas físicas y grupos afectados, los riesgos específicos, las medidas de vigilancia humana y el plan de actuación en caso de materialización de los riesgos.

¿Cómo sabe un proveedor los efectos de su producto?

Las grandes corporaciones ya cuentan con sistemas propios para adaptarse a la norma. Para las entidades menores y aquellas que usen sistemas de código abierto, la ley crea espacios controlados de pruebas y ensayo en condiciones reales, que aportan un entorno controlado para probar tecnologías innovadoras durante seis meses prorrogables a otros tantos. Podrán ser objeto de inspecciones.

¿Quiénes están exentos?

Los proveedores de modelos gratuitos y de código abierto están exentos de las obligaciones relacionadas con la comercialización, pero no de la obligación de evitar los riesgos. Tampoco afecta la norma a las actividades de investigación, desarrollo y creación de prototipos o a los desarrollos destinados a usos de defensa o de seguridad nacional. Los sistemas de IA de uso general sí tendrán que cumplir los requisitos de transparencia, como la elaboración de documentación técnica, el cumplimiento de la legislación de la UE en materia de derechos de autor y la difusión de resúmenes detallados sobre los contenidos utilizados para el entrenamiento del sistema.

¿Quién vigila el cumplimiento?

Se establece una Oficina Europea de Inteligencia Artificial, un panel de asesoramiento científico y autoridades de vigilancia nacionales para el seguimiento de los sistemas y autorización de aplicaciones. Las agencias y oficinas de IA deberán tener acceso a la información necesaria para cumplir sus obligaciones.

¿Cuándo será plenamente aplicable la Ley de IA?

Tras su adopción, la Ley de IA entra en vigor a los 20 días de su publicación y será plenamente aplicable en 24 meses, de forma gradual. En los primeros seis meses, los Estados miembros deben eliminar los sistemas prohibidos. En un año, se impondrán las obligaciones de gobernanza para la IA de uso general. En dos años, deben estar adecuados todos los sistemas alto riesgo.

¿Cuáles son las sanciones por las infracciones?

Cuando se comercialicen o utilicen sistemas de inteligencia artificial que no cumplan los requisitos del Reglamento, los Estados miembros deberán establecer sanciones efectivas, proporcionadas y disuasorias por las infracciones y notificarlas a la Comisión. Se prevén multas de hasta 35 millones de euros o el 7% del volumen de negocios anual a escala mundial del ejercicio financiero anterior, hasta 15 millones de euros o el 3% del volumen de negocios y hasta 7,5 millones de euros o el 1,5% del volumen de negocios. En cada categoría de infracción, el umbral sería el menor de los dos importes para las pymes y el más elevado para las demás empresas.

¿Qué puede hacer la víctima de una infracción?

La Ley de IA prevé el derecho a presentar una denuncia ante una autoridad nacional y facilita a las personas la reclamación de una indemnización por los daños causados por sistemas de inteligencia artificial de alto riesgo.

Puedes seguir a EL PAÍS Tecnología en Facebook y X o apuntarte aquí para recibir nuestra newsletter semanal.

Seguir leyendo

]]>
CHEMA MOYA
<![CDATA[Gil Shwed, consejero delegado de Check Point: “El riesgo de ciberataques es el mayor de todos los tiempos y se mantendrá así”]]>https://elpais.com/tecnologia/2024-03-04/gil-shwed-consejero-delegado-de-check-point-el-riesgo-de-ciberataques-es-el-mayor-de-todos-los-tiempos-y-se-mantendra-asi.htmlhttps://elpais.com/tecnologia/2024-03-04/gil-shwed-consejero-delegado-de-check-point-el-riesgo-de-ciberataques-es-el-mayor-de-todos-los-tiempos-y-se-mantendra-asi.htmlMon, 04 Mar 2024 04:20:00 +0000Gil Shwed, nacido en Jerusalén hace 55 años, ha liderado durante tres décadas una de las mayores empresas de ciberseguridad del mundo. Fundó Check Point con solo 25 años junto a Shlomo Kramer y Marius Nacht tras pasar por el servicio militar israelí, la mayor cantera singular de expertos en amenazas informáticas. Pese a ser el consejero delegado (CEO) más longevo de una empresa del Nasdaq (el segundo mayor mercado de valores de EE UU), ha decidido dar un paso al lado y dejar su puesto de máxima responsabilidad en una compañía que observa la mayor incidencia mundial de ciberataques de la historia. Cuenta con más de 5.000 empleados, ha recuperado la senda de los beneficios (cerró el año con 2.265 millones de euros, un 4% más que en 2022) y ha visto el crecimiento vertiginoso de empresas, como Palo Alto, creada por el exingeniero de Check Point Nir Zuk. Concede esta entrevista durante la convención de su empresa (CPX) en Viena (Austria), donde ha exhibido el lazo amarillo que simboliza la petición de libertad para todos los rehenes de Hamás.

Pregunta. ¿Por qué deja el puesto de director general?

Respuesta. No me voy de Check Point. Estoy haciendo una transición para ser presidente ejecutivo. Quiero centrarme en nuevas áreas y estaré disponible para lo que sea. He sido el consejero delegado más longevo del Nasdaq y es un momento interesante para pensar en la siguiente etapa y llevar Check Point hacia adelante. Tenemos un equipo muy fuerte, muy buena cartera de productos y es un buen momento para pensar en lo que será la compañía en los próximos cinco o 10 años. Parte de mi trabajo ha sido tener hasta 12 reuniones de media hora cada día y, si quiero realmente escuchar a los clientes, aprender nuevas tecnologías y abordar los problemas, tengo que concentrarme y dedicar más tiempo a estas tareas.

P. ¿Vivimos en el momento de mayor riesgo de ciberataques?

R. El riesgo es el mayor de todos los tiempos y, probablemente, se mantendrá así. Los actores maliciosos están aprendiendo más y más sobre las vulnerabilidades en la infraestructura. No solo mejoran, sino que también es mayor la cantidad de infraestructura en riesgo. Dependemos más de la tecnología y estamos más conectados que nunca. Eso es bueno, es muy importante para nuestro mundo, pero también significa que todas las empresas pueden ser víctimas de ataques. Si nos fijamos en la infraestructura de software [programación], es aún más desafiante porque, cuanto más sofisticada es, hay más errores y más lugares para atacar. El tamaño de los programas es 1.000 veces superior al de hace 30 años y las posibilidades de atacar son muchas más. Además, todas las computadoras están conectadas y hay muchos más servicios que consumimos en línea.

Dependemos más de la tecnología y estamos más conectados que nunca. Eso es bueno, es muy importante para nuestro mundo, pero también significa que todas las empresas pueden ser víctimas de ataques

P. Cómo empresa con sede principal en Israel, ¿cómo le ha afectado la guerra en Gaza?

R. El principal efecto ha sido que algunos de nuestros empleados han sido reclutados por el Ejército, aproximadamente el 5% de nuestra fuerza laboral. Desde el primer día hemos insistido en que mantengamos el negocio y cumplamos con todos nuestros compromisos. Y lo hacemos, por lo que no ha tenido un efecto significativo en nuestros resultados. Nadie está contento con estar en guerra. No es la mejor situación, pero, en términos de trabajo, estamos cumpliendo.

P. ¿Cómo será este año en términos de ciberseguridad?

R. Los ataques a las infraestructuras son muy sofisticados y seguirá existiendo Estados detrás de los grupos criminales. Los ataques cibernéticos serán de quinta generación: muy sofisticados y muy difíciles de detectar. Seguimos con un riesgo muy alto y va a ser mayor. Un ataque nunca es bueno, pero estamos viendo que cada vez hay más protección y se descubren las tecnologías para poder defenderse de la mejor manera. La parte mala es que hay muchas más organizaciones atacando y muchas más que están siendo atacadas.

P. Usan inteligencia artificial (IA), pero los actores maliciosos, también. ¿Quién está ganando la carrera?

R. Ganamos porque mantenemos nuestro mundo conectado y en funcionamiento. Internet produce mucho más bien que mal. Las herramientas generativas de IA dan a los atacantes mucho acceso, desde cosas simples como escribir un mensaje de phishing [suplantación de identidad fraudulenta] o un bulo.

Ganamos porque mantenemos nuestro mundo conectado y en funcionamiento. Internet produce mucho más bien que mal

P. ¿Podemos protegernos?

R. Contra el mensaje falso es más simple. Ahora, ¿podemos protegernos de las sofisticadas películas deepfake [vídeos ultrafalsos con apariencia real]? Lo estamos investigando y, tal vez, podamos identificar que un videoclip ha sido producido por personas reales o por IA.

P. Investigan permanentemente sobre cómo defender la máquina, la web y la nube, pero, finalmente, el factor humano, la persona, es el punto más vulnerable de la cadena, ¿cómo se corrige esta debilidad?

R. Tenemos que aprender a ser más cuidadosos, pero no estoy seguro de que las personas sean lo más vulnerable. Si nos fijamos en algunos de los ataques más devastadores, el factor humano fue muy limitado. No digo que no exista, pero hay ataques de clic cero que permite a alguien llegar a su computadora o móvil o cualquier cosa sin que usted haga nada. Ese es el tipo de ataques más sofisticado. Pero incluso cuando haces clic en algo, no eres tú quien está causando el daño, es la activación de un proceso muy complicado que explota la vulnerabilidad en la aplicación debajo de ella.

P. ¿Hay alguien seguro?

R. No. Pero no quiero asustar, sino transmitir el mensaje de que puedes estar seguro y es bueno usar Internet, aunque tenemos que recordar que, si doy mis datos en la red, están en riesgo. Aunque es bueno correr ese riesgo. Mi vida es mucho mejor al participar comunicándome con la gente o haciendo comercio electrónico. ¿Es más seguro? Creo que sí. ¿Puede Internet ser más seguro? Sí, porque puedes usar diferentes herramientas para hacerlo.

Tenemos que recordar que, si doy mis datos en la red, están en riesgo. Pero es bueno correr ese riesgo. Mi vida es mucho mejor al participar comunicándome con la gente o haciendo comercio electrónico

P. ¿Alguna vez ha sufrido un ataque personalmente?

R. No, pero mi móvil me indica que me ha protegido varias veces en las últimas semanas de algunos sitios web que no son seguros y llegué a ellos navegando por sitios de Internet muy válidos.

P. Las amenazas son globales, pero las soluciones son individuales. ¿Es posible la colaboración entre empresas para reducir esta desventaja?

R. La prioridad número uno para nosotros es la colaboración, hacer que nuestros productos sean más colaborativos.

P. Hay armas antiguas que resurgen, como la infección con una memoria portátil tipo USB, y otras nunca vistas.

R. Hemos visto este año ataques que hace 15 años eran muy comunes, como los generados con dispositivos USB. Están tratando de llegar a equipos cuando no están conectados a Internet o están muy bien protegidos. En internet estamos haciendo un buen trabajo con cortafuegos. Pero, por eso, la colaboración es tan importante. La necesito cuando veo al atacante en la red o en un USB o en el móvil.

Corea del Norte es un ejemplo extremo porque puede ser el peor atacante, ya que no tienen nada que perder porque están desconectados. Es una nación sofisticada, son inteligentes y saben cómo usar la tecnología, pero allí el riesgo es muy limitado

P. Hay ataques que ya no buscan dinero, sino solo destruir la capacidad operativa de infraestructuras críticas.

R. La motivación varía. En los primeros días de Internet, la mayoría de los incidentes venía de personas que solo querían demostrar sus habilidades. Ahora, ataques patrocinados por Estados y motivados ideológicamente solo quieren causar un daño real, no para obtener dinero, ni siquiera para robar datos, sino para causar daño.

P. Rusia, Irán, Corea del Norte son algunos de esos estados patrocinadores. ¿Hay alguna posibilidad de evitarlos?

R. Estamos tratando de defender a todo el mundo de todo el mundo. Vemos grandes ataques por todas partes y no siempre sabemos a quién atribuirlos porque se oculta el origen. Muchos países no los hacen directamente, sino a través de organizaciones que trabajan para ellos. Por cierto, Corea del Norte es un ejemplo extremo porque puede ser el peor atacante, ya que no tienen nada que perder porque están desconectados. Es una nación sofisticada, son inteligentes y saben cómo usar la tecnología, pero allí el riesgo es muy limitado porque no se conectan a Internet.

Puedes seguir a EL PAÍS Tecnología en Facebook y X o apuntarte aquí para recibir nuestra newsletter semanal.

Seguir leyendo

]]>
C. P.
<![CDATA[Una condena entre mafias de la ‘dark web’ tumbó al grupo de ciberdelincuentes que atacó el Ayuntamiento de Sevilla y miles de entidades]]>https://elpais.com/tecnologia/2024-03-02/una-condena-entre-mafias-de-la-dark-web-tumbo-al-grupo-de-ciberdelincuentes-que-ataco-el-ayuntamiento-de-sevilla-y-miles-de-entidades.htmlhttps://elpais.com/tecnologia/2024-03-02/una-condena-entre-mafias-de-la-dark-web-tumbo-al-grupo-de-ciberdelincuentes-que-ataco-el-ayuntamiento-de-sevilla-y-miles-de-entidades.htmlSat, 02 Mar 2024 04:20:00 +0000La dark web, la red oscura oculta a los motores de búsqueda, que encubre las IP (identidad de los dispositivos con los que se trabaja) y accesible solo mediante navegadores específicos, no es un mundo sin reglas, pese a ser la plataforma de las actividades delictivas informáticas, pederastia, trata de personas o venta ilegal de armas y drogas. Como todas las mafias, cuentan con sus normas y la vulneración de ellas conlleva sus castigos. El quebranto de una de estas leyes, la del reparto del dinero obtenido mediante extorsiones, ha sido lo que ha dado al traste con LockBit, la mayor organización de secuestro y chantaje. Entre los muchos delitos atribuidos desde su detección en 2019, tumbó la web del Ayuntamiento de Sevilla, el Puerto de Lisboa, la oficina presupuestaria de California, un hospital infantil de Toronto y miles de empresas. La operación policial internacional contra esta trama, que se ha saldado con dos detenidos en Europa del Este, fue posible después de su condena en la sociedad del crimen. El grupo delictivo intenta ahora resurgir.

La Agencia Nacional contra el Crimen (NCA, por sus siglas en inglés) de Reino Unido anunció el pasado 20 de febrero haber “tomado el control de los servicios de LockBit” tras infiltrarse en la red mafiosa en una operación denominada Cronos. En coordinación con la Europol, dos personas fueron arrestadas en Polonia y Ucrania y se confiscaron 200 cuentas de criptomonedas. Otros cuatro presuntos actores maliciosos fueron acusados judicialmente en Estados Unidos.

“Esta investigación contra el grupo de delitos cibernéticos más dañino del mundo demuestra que ninguna operación delictiva, dondequiera que se encuentre, y por muy avanzada que sea, está fuera del alcance de la agencia y de nuestros socios. Hemos hackeado a los hackers [piratas informáticos]; tomado el control de su infraestructura, obtenido su código fuente y descifrado las claves que ayudarán a las víctimas a descifrar sus sistemas. A partir de hoy [20 de febrero], LockBit está bloqueado”, afirma el director de la NCA, Graeme Biggar.

El director de la agencia federal de investigación (FBI) de Estados Unidos comparte la euforia: “El FBI y nuestros socios han interrumpido con éxito el ecosistema criminal de LockBit, que representa una de las variantes de ransomware [extorsión por el secuestro de sistemas informáticos] más prolíficas en todo el mundo”.

Sergey Shaykevich, director del Grupo de Amenazas de Check Point.

Pero esta operación policial internacional fue el final de un proceso que ya había comenzado en la dark web y que fue el detonante inicial de la desarticulación del equipo criminal. Según describe Sergey Shaykevich, director del Grupo de Amenazas de Check Point durante un encuentro de la multinacional en Viena (CPX), el origen de la caída fue una disputa por los beneficios de una extorsión que se dirimió en un juicio entre delincuentes y una apelación infructuosa que dio lugar a una condena de desaparición. “LockBit fue bloqueado en los foros [de la dark web] y, luego, se derribó. Es un golpe doble”, resume.

LockBit, y otras organizaciones similares, utilizan ransomware como servicio (RaaS). Según la empresa de seguridad Kaspersky, son programas a los que se accede a través de la dark web, como las aplicaciones habituales de entornos de trabajo en la web convencional o limpia. “Las partes interesadas dejan un depósito para usar los programas que se contratan. Los pagos del rescate se dividen entre el equipo de desarrolladores de LockBit y los atacantes, que reciben hasta tres cuartas partes de la extorsión una semana después si se han alcanzado los objetivos”

Shaykevich relata que la disputa que dio lugar al juicio contra LockBit ascendía a 20 millones de euros. “La reputación en ransomware es lo más importante”, comenta el jefe de amenazas de Check Point para explicar cómo un desacuerdo entre delincuentes motivó la caída de un gigante del cibercrimen.

Una de las últimas víctimas del grupo fue el Ayuntamiento de Sevilla, al que LockBit reclamó más de un millón y medio de euros por la recuperación de los sistemas informáticos municipales el pasado septiembre. El concejal de Transformación Digital, Juan Bueno, dijo tras el secuestro que los atacantes eran “de origen holandés”.

El suceso y la primera atribución del concejal, de la que se hicieron eco muchos medios, evidenciaron que el Ayuntamiento carecía de la protección necesaria y que el responsable de Transformación Digital desconocía LockBit, “la organización de ransomware más prolífica del mundo”, según el ministro del Interior británico, James Cleverly.

“¿De Holanda? No, no, no. La mayoría tiene sede en Rusia. Los dos arrestados en Polonia y Ucrania no son los miembros claves, que están en Rusia”, afirma Shaykevich.

Ese falso origen holandés se refería a la localización del último servidor desde el que partió el correo electrónico con el enlace malicioso que dio lugar al secuestro. Estos sistemas de computación para el tráfico de datos, en la dark web, se utilizan para la encriptación sucesiva que evita el rastreo. Según la NCA, la operación Cronos ha supuesto el desmantelamiento de 28 servidores de LockBit.

Posible resurgimiento

Sin embargo, el juicio en la internet oscura y la posterior operación policial internacional no implica el fin de toda la infraestructura de LockBit, que aspira a continuar en el mercado de ataques de secuestro y extorsión porque suponen, según calcula Shaykevich, más de 200 millones de euros de ingresos cada año.

Un presunto responsable del grupo ha afirmado en un comunicado que la intervención policial ha sido posible por una “vulnerabilidad en el lenguaje de programación PHP”. Esta denominación se refiere al sistema de código abierto Hypertext Preprocessor, habitual en el desarrollo de páginas web. “Todos los demás servidores con blogs de respaldo que no tenían PHP instalado no se han visto afectados y continuarán entregando datos robados de las empresas atacadas”, asegura en inglés y ruso el supuesto hacker.

Las empresas de seguridad han detectado ya estos intentos de recomposición, pero cuestionan la viabilidad de continuar con el mismo nombre tras la crisis de reputación criminal generada por la disputa en la dark web y tras haber mostrado una vulnerabilidad aprovechada por la policía internacional. “Mientras las personas no sean arrestadas, lo más probable es que cambien y construyan una nueva organización con un nuevo nombre. Pero el paso que se ha dado es importante y demuestra que las fuerzas del orden operan y que puedes ser castigado”, explica Shaykevich.

Christopher Asher Wray, director del FBI, coincide: “Esta operación [Cronos] demuestra tanto nuestra capacidad como nuestro compromiso para defender la ciberseguridad frente a cualquier actor malicioso que busque afectar nuestra forma de vida. Continuaremos trabajando con nuestros aliados nacionales e internacionales para identificar, interrumpir y disuadir las amenazas cibernéticas, y para responsabilizar a los perpetradores”.

Puedes seguir a EL PAÍS Tecnología en Facebook y X o apuntarte aquí para recibir nuestra newsletter semanal.

Seguir leyendo

]]>
HANDOUT
<![CDATA[Jack Lewis, neurocientífico: “Un mínimo de pecados capitales es perfectamente sano y moralmente apropiado”]]>https://elpais.com/salud-y-bienestar/2024-02-27/jack-lewis-neurocientifico-un-minimo-de-pecados-capitales-es-perfectamente-sano-y-moralmente-apropiado.htmlhttps://elpais.com/salud-y-bienestar/2024-02-27/jack-lewis-neurocientifico-un-minimo-de-pecados-capitales-es-perfectamente-sano-y-moralmente-apropiado.htmlTue, 27 Feb 2024 04:20:00 +0000Jack Lewis es un popular neurocientífico nacido en Londres hace 46 años y formado en la Universidad de Nottingham y el Instituto Max Planck alemán. Lewis se ha fijado en los condicionantes cerebrales del comportamiento humano para escribir La ciencia del pecado, recién publicado en español por Pinolia. Los llamados pecados capitales, presentes en las religiones mayoritarias, le han servido de guía para desentrañar cómo y por qué sucumbimos a las tentaciones. No elude su carácter de herramientas de control social, a modo de primitivo código penal y civil, pero defiende que también son respuestas que han garantizado nuestra supervivencia: “Las siete tentaciones humanas más comunes son una parte perfectamente aceptable, si no totalmente necesaria, de nuestro repertorio de comportamientos. Si se suprimieran por completo, es muy posible que nuestra especie no sobreviviera”.

Pregunta. ¿Por nuestra configuración cerebral, nacemos pecadores o predispuestos al pecado?

Respuesta. Para una especie tan intrínsecamente social como el Homo sapiens, equipada con increíbles redes cerebrales que permiten a la gran mayoría de nosotros entender intuitivamente cómo se sienten los demás, lo que facilita el desarrollo y mantenimiento de vínculos sociales saludables, yo diría que la predisposición predeterminada es no pecar. Si el entorno social en el que se cría una persona falla, al no exhibir una evidencia clara de cuánto más se puede ganar persiguiendo resultados prosociales por encima de la ganancia personal, entonces es más probable que los comportamientos antisociales resultantes caigan en la categoría de pecado. Por lo tanto, en mi opinión, un pecador se hace, no nace. Nuestra predisposición es a aprender los beneficios de actuar de manera justa en nuestro trato con otras personas de nuestro entorno. Esto siempre ha sido esencial para la supervivencia de los miembros de nuestra especie. Ser una parte aceptada de un grupo siempre conduce a mejores resultados que hacerlo solo. Los jugadores de equipo, que se benefician de la cooperación social de los demás, viven lo suficiente como para transmitir sus genes. Aquellos que son rechazados por su comunidad debido a los extremos de comportamiento antisocial, generalmente, no lo hacen.

P. Pero describe en su libro funciones cerebrales relacionadas con la respuesta a las tentaciones...

R. El cerebro parece generar sensaciones psicológicas y físicas de angustia. El hecho de que un individuo responda o no a tales sentimientos de una manera que conduzca a dañar sus relaciones sociales dicta si la religión considera que ha pecado o no. La configuración predeterminada es para tener éxito en aprender a manejar estos sentimientos sin causar rupturas en nuestras relaciones. No siempre lo hacemos bien, pero tendemos a mejorar a medida que envejecemos y nos volvemos más sabios, lo que permite a la mayoría de las personas mantener su pertenencia a un grupo de cooperación. Es común que una persona que se siente herida por los comentarios o acciones de otra persona arremeta de alguna manera con palabras o acciones. Aquellos que pueden resistir la tentación de responder así a tales sentimientos negativos, generalmente, han aprendido a hacerlo gracias a otras personas que dan buen ejemplo y así demuestran los beneficios a largo plazo, y a mucha práctica imitando estos comportamientos para experimentar personalmente los beneficios. Aquellos incapaces de contenerse de esta manera, generalmente, se han criado en un entorno donde los modelos a seguir dan un mal ejemplo y/o, simplemente, no obtuvieron suficiente práctica para desarrollar los circuitos cerebrales relevantes.

P. Los pecados son una herramienta de control social (ha escrito que “los dioses son muy útiles a la hora de imponer códigos de conducta a gran escala”) y también clave en nuestra evolución. ¿Dónde está el límite entre una pulsión beneficiosa y una dañina?

R. Este límite podría describirse en términos muy simples: encontrar el equilibrio entre maximizar el beneficio personal sin molestar seriamente a tu comunidad y condenarte al ostracismo. Un mínimo de codicia, lujuria, gula, orgullo, envidia, ira y pereza es perfectamente sano y moralmente apropiado. Es solo el exceso el que conduce inevitablemente a resultados antisociales; de ahí las advertencias contra este tipo de comportamientos y las prohibiciones incluidas en varias religiones. Todo con moderación es aplicable aquí, como en otros aspectos de la vida.

El exceso conduce inevitablemente a resultados antisociales; de ahí las advertencias contra este tipo de comportamientos y las prohibiciones incluidas en varias religiones”

P. Escribe que, si todos resistieran a las siete tentaciones, habría menos fricción social, más cooperación y, por lo tanto, todos ganarían. ¿Cómo resistirse?

R. Práctica, determinación y optimismo. La enorme cantidad de evidencia que respalda el concepto de neuroplasticidad —incluso en la edad adulta el cerebro humano es capaz de fortalecer ciertas conexiones, debilitar otras y, por lo tanto, cambiar de manera lenta pero segura nuestros repertorios de comportamiento— sugiere que, si practicamos la autogestión emocional de manera regular (diaria), intensiva (presionándonos) y a largo plazo (de forma mantenida), podemos desarrollar las áreas cerebrales que nos dan más control sobre los niveles excesivos de actividad en nuestro dACC [siglas en inglés de la corteza cingulada dorsal anterior, la región cerebral vinculada con el control cognitivo y emocional]. En otras palabras, todos podemos tomar medidas para desarrollar el hábito de mirar nuestra angustia emocional de manera más objetiva. Esto, por sí solo, hace que sea más probable que, en lugar de responder de manera antisocial, elijamos una forma prosocial. Por ejemplo, si alguien nos ofende, en lugar de responder con enojo, podemos pensar en el dolor y la angustia que podría estar sufriendo, es decir, contemplar cuán hiperactivo podría ser su dACC, lo que hace que se comporte de una manera desagradable y, por lo tanto, cambiar los sentimientos de ira por simpatía. Esto ciertamente no es fácil, pero con la práctica podemos mejorar hasta el punto de que, en lugar de ser impulsivos y soltar una respuesta o planear nuestra venganza durante un período de tiempo más largo, podemos canalizar nuestras energías para empatizar con su sufrimiento. Todo el mundo sufre, solo nos diferenciamos en el grado. Desde ese punto de vista, podemos dirigir nuestro comportamiento hacia lo único que realmente importa: alcanzar un resultado prosocial. Alimentar las conexiones sociales en lugar de destruirlas.

Todo el mundo sufre, solo nos diferenciamos en el grado”

P. ¿Las redes sociales crean narcisistas, soberbios?

R. No siempre, pero ciertamente pueden avivar las llamas del narcisismo incipiente. Depende de cómo interactúes con las redes sociales y a quién sigues. Si te atiborras excesivamente de personas narcisistas o enojadas, entonces esta exposición diaria modificará los circuitos de tu cerebro para normalizar los tipos de comportamientos que exhiben. Los seres humanos somos imitadores naturales y, a menudo, copiamos los comportamientos de las personas con las que nos relacionamos regularmente; a menudo sin siquiera darnos cuenta de que lo estamos haciendo. Si, por otro lado, sigues a personas inspiradoras, fascinantes y reflexivas que están motivadas altruistamente para compartir una perspectiva positiva sobre el arte, la vida, el deporte, la humanidad, la cultura, entonces la exposición diaria modificará los circuitos de tu cerebro de manera diferente. Normalizará estos mensajes e ideas, fomentando la imitación de comportamientos no narcisistas y una visión más positiva de la humanidad. Los humanos tendemos a seguir a la multitud. Verdaderamente somos animales de manada. Hoy en día, con las redes sociales, nos demos cuenta o no, todos tenemos el poder de seleccionar exactamente qué multitud permitimos que nos influya a diario. Todo se reduce a estar atentos para encontrar a las personas adecuadas a las que seguir en las redes sociales y desalojar a las manzanas podridas de nuestros feeds [contenidos que seguimos].

P. El cortisol perjudica el autocontrol de la gula. ¿Puede haber una solución química, como Ozempic?

R. Ozempic puede suprimir el apetito, pero la gula es mucho más que solo comer. Se trata de ingerir cantidades excesivas de una sustancia a través de la boca. Por lo tanto, un glotón que toma Ozempic podría comer menos alimentos, pero ¿ayuda a moderar su consumo de bebidas o drogas? El cortisol alto en nuestro sistema nos hace sentir estresados y el estrés drena nuestra capacidad para suprimir la gratificación inmediata. Muchas formas de gratificación inmediata reducen temporalmente el cortisol solo para que suba, cada vez más, después. Los métodos químicos para reducir el apetito o el estrés, a veces, son efectivos, pero la mayoría de los productos químicos que introducimos en nuestro sistema suelen tener efectos secundarios no deseados. Los medicamentos dan con una mano, pero quitan con la otra, por lo que las rutas no químicas para controlar los niveles altos de cortisol suelen ser más sostenibles y preferibles en general. La mejor manera de reducir el cortisol es participar en la interacción social con personas con las que te resulta fácil llevarte bien, hacer ejercicio regularmente, disfrutar de la naturaleza y, quizás lo más importante, practicar alguna forma de meditación, ya sea centrando la atención en la respiración o perdiéndose en el flujo de un buen libro, una manualidad o la música. Es extremadamente eficaz para controlar el estrés y los muchos impactos potencialmente negativos del estrés.

P. Sobre la lujuria: ¿el porno desarrolla una preferencia por lo falso sobre lo real?

R. En los sitios web pornográficos todo es accesible con un clic. Un tipo de pornografía que, al principio, parece desagradable, puede no parecerlo tanto si se vuelve a él. Varias exposiciones más tarde, tal vez semanas o incluso meses después, la respuesta puede haber pasado de una leve aversión a algo tentador. Antes de que se dé cuenta, una persona puede encontrarse buscando activamente una forma de pornografía que se ha vuelto deseable, a pesar de encontrar la experiencia inicial un poco desagradable. Esto podría comenzar con mujeres con senos grotescamente agrandados u hombres con penes intimidantemente grandes. Después de un tiempo, las respuestas a estos estímulos sexuales de gran tamaño pueden pasar de ser desagradables a excitantes hasta que, en última instancia, se consideren aburridas y el consumidor de pornografía, probablemente, se sienta motivado para ver qué más hay por ahí. Y así, el ciclo continúa. No necesariamente conduce a una preferencia por lo falso sobre lo real, pero es probable que conduzca a un interés sexual en fenómenos que no se ofrecen fácilmente por parte de la pareja.

El porno no necesariamente conduce a una preferencia por lo falso sobre lo real, pero es probable que conduzca a un interés sexual en fenómenos que no se ofrecen fácilmente por parte de la pareja”

P. ¿Somos esclavos de la respuesta del cerebro a la excitación sexual?

R. Los sentimientos de excitación sexual están fuera de nuestro control. Son una respuesta automática, fisiológica y química. Sin embargo, actuar sobre esos sentimientos sexuales está muy bajo nuestro control. Podemos estar fisiológicamente preparados para el sexo, pero elegimos no actuar. Tomar una ducha fría o pensar en un pariente anciano desnudo son métodos populares para tomar medidas decisivas para reducir la preparación sexual.

P. La codicia no es instintiva, sino que requiere cierto grado de deliberación consciente. ¿Se puede enseñar la codicia?

R. La codicia ciertamente se puede enseñar. Hay todo tipo de narrativas convenientes que la gente puede contarse a sí misma (y a sus hijos) para justificar el control desproporcionado de los recursos de los que disfrutan los ricos en comparación con los pobres.

P. Sobre la envidia, asegura que, desde el punto de vista de la psicología evolutiva, disfrutar de la desgracia de un superior tiene sentido. ¿Cómo?

R. La schadenfreude, la alegría derivada de la desgracia de los demás, probablemente, evolucionó como un mecanismo para reforzar los lazos sociales. Aquellos que percibimos como superiores a nosotros, de alguna manera, suelen tener mayor poder o influencia sobre los demás que nosotros mismos. Los que tienen poder sobre los demás suelen ser una minoría: el gerente, el líder, la celebridad, el déspota... Cuando un gran número de personas que comparten el sentimiento de estar en desventaja frente a los que tienen mayor poder se sienten simultáneamente felices porque sus superiores caen en desgracia o sufren una vergüenza, se refuerza la sensación de que están juntos en esto. Puede que no tengan el poder y la riqueza de las personas que envidian, pero al menos se tienen los unos a los otros.

Puedes seguir a MATERIA en Facebook, X e Instagram, o apuntarte aquí para recibir nuestra newsletter semanal.

Seguir leyendo

]]>
John Clark
<![CDATA[La regulación de la inteligencia artificial se acelera después de que controle ya todos los ámbitos]]>https://elpais.com/tecnologia/2023-11-04/la-regulacion-de-la-inteligencia-artificial-se-acelera-despues-de-que-controle-ya-todos-los-ambitos.htmlhttps://elpais.com/tecnologia/2023-11-04/la-regulacion-de-la-inteligencia-artificial-se-acelera-despues-de-que-controle-ya-todos-los-ambitos.htmlSat, 04 Nov 2023 04:22:00 +0000La inteligencia artificial (IA) se ha metido en nuestras vidas de forma vertiginosa (hace menos de un año de la irrupción de ChatGPT) y dirige ya, sin que nos demos cuenta, casi todas las actividades cotidianas, desde las películas que vemos hasta nuestro trabajo, compras o relaciones. Un estudio sobre su uso en objetivos de sostenibilidad, publicado en Nature, detectó que entre el 70% y el 80% de los usos tienen consecuencias positivas, pero el resto de los efectos pueden ser negativos. Estos porcentajes son extrapolables a otras áreas y son cruciales porque afectan a las vidas, a la salud, a la convivencia, a la democracia o a la capacidad de desarrollo. Hasta ahora solo había principios éticos insuficientes. El presidente de EE UU, Joe Biden, acaba de firmar un decreto que obliga a las tecnológicas a notificar al Gobierno cualquier avance que suponga un “riesgo grave para la seguridad nacional”. El primer ministro británico, Rishi Sunak, ha convocado este miércoles y jueves una cumbre de la que ha surgido el primer compromiso de 28 países y de la UE sobre estos sistemas (Declaración de Bletchley) y la creación de un grupo de expertos para el seguimiento de sus avances. La Unión Europea ultima su propia norma: la AI Act. La vicepresidenta primera del Gobierno en funciones y ministra de Asuntos Económicos y Transformación Digital, Nadia Calviño, estima que se aprobará en las próximas semanas.

La Declaración de Bletchley reconoce la encrucijada actual: “La inteligencia artificial presenta enormes oportunidades globales: tiene el potencial de transformar y mejorar el bienestar humano, la paz y la prosperidad. Para lograr esto, afirmamos que, por el bien de todas las personas, la IA debe diseñarse, desarrollarse, implementarse y utilizarse de manera segura, centrada en el ser humano, confiable y responsable”.

La presidenta de la Comisión Europea, Ursula von Der Leyen, y el secretario general de Naciones Unidas, Antonio Guterres, este jueves en la cumbre sobre IA en Bletchley.

La inteligencia artificial son sistemas y programas capaces de replicar tareas propias de su homóloga humana, como el aprendizaje, el razonamiento o la toma de decisiones. Se fundamenta en datos, el alimento básico, y en algoritmos, el conjunto metódico de pasos para hacer cálculos, resolver problemas y decidir a partir de la información disponible. Y puede llegar a hacerlo sin la intervención humana: el aprendizaje automático permite que las máquinas se instruyan a partir de sus propios procesos o de otros dispositivos.

Nació oficialmente como disciplina en una conferencia de ciencias de la computación en el Dartmouth College (New Hampshire, EE UU), en 1956. Sus padres fueron John McCarthy, de la Universidad de Stanford; Allen Newell, Herbert Simon, ambos de Carnegie Mellon; y Marvin Minsky, del Instituto Tecnológico de Massachusetts (MIT) y premio Fronteras del Conocimiento de la Fundación BBVA en 2014. Todos partían de la premisa de que las máquinas pueden imitar al cerebro. Pero tras décadas de un uso restringido, en los últimos años, su utilización se ha generalizado y extendido a todas las actividades, llegando a ser accesible mediante simples comandos de voz. Y aquí surgen su enorme potencial y los conflictos. “La IA debe ser la solución, pero no el problema”, defiende Coral Calero, catedrática de Lenguajes y Sistemas Informáticos de la Universidad de Castilla-La Mancha (UCLM) e integrante del Comité Español de Ética de la Investigación creado por el Ministerio de Ciencia e Innovación.

La Inteligencia artificial es capaz de identificar las alteraciones en el genoma que provocan la aparición de enfermedades o reducir a días el hallazgo de moléculas con propiedades medicinales u optimizar procesos industriales y crear puestos de trabajo o diagnosticar a través de imágenes o generar textos, vídeos y sonidos o recrear un personaje o elegir películas y productos a partir de los gustos del usuario o seleccionar inversiones. La lista es inabarcable.

Pero esa misma tecnología es uno de los vectores emergentes de fraude más preocupantes (secuestro de datos) y puede utilizarse para generar bulos, desprestigiar a una persona, manipular precios, alterar el mercado laboral (dejando empleos y trabajadores obsoletos), atacar a competidores, influir en la opinión pública en elecciones, fortalecer el alcance de una campaña de desinformación, crear y diseminar propaganda, especialmente en tiempos de guerra, o como arma machista. Un ejemplo de esto último ha sido la detención en Almendralejo, a finales de septiembre, de una veintena de menores por recrear con inteligencia artificial desnudos de compañeras de instituto.

Ricardo Vinuesa, profesor asociado en el KTH Real Instituto de Tecnología de Estocolmo e investigador de IA, ha sido uno de los primeros en evaluar los efectos de esta tecnología a partir de su uso para alcanzar metas de sostenibilidad. “El 70% de los objetivos pueden verse afectados positivamente por la IA, pero alrededor del 30% pueden verse afectados negativamente. Tenemos muchos desafíos”, afirma en un encuentro celebrado en la Universidad de Sevilla.

En este sentido, Miguel Escassi, responsable de Política Pública en Google para España y Portugal advierte: “Tenemos una oportunidad única para acelerar el crecimiento económico y avanzar en todos los retos sociales que tenemos por delante. La capacidad de desplegar la inteligencia artificial e innovar con ella a gran escala definirá la competitividad en la próxima década. Sin embargo, para no dejar pasar estas oportunidades, los responsables políticos deben encontrar el equilibrio virtuoso entre maximizar las ventajas de la inteligencia artificial y minimizar sus riesgos, que también existen”.

Necesitamos regular la IA porque es demasiado importante para no hacerlo. Y no solo es necesaria la norma, sino hacerla bien

Pilar Manchón, consejera del comité de asesoramiento del Gobierno español y responsable de estrategia de investigación de Google

Pilar Manchón, consejera del comité de asesoramiento del Gobierno español y responsable de estrategia de investigación con inteligencia artificial también en Google, califica esta era marcada por la herramienta informática como “el nuevo renacimiento”, pero también reclama un marco de actuación: “Necesitamos regularla porque la IA es demasiado importante para no hacerlo. Y no solo es necesaria la norma, sino hacerla bien”.

“Tenemos que reducir las incertidumbres de la IA y esforzarnos en desarrollar herramientas que mejoren la calidad de los datos para estar seguros de que no se excluye ningún aspecto”, añade Matteo Rucco, científico de Rexasi-Pro, un proyecto europeo para desarrollar soluciones de inteligencia artificial confiables y no discriminatorias.

Si piensas en cómo trabaja la mente, cuando tomamos una decisión también imaginamos las consecuencias y eso debe ser parte de la inteligencia artificial

Michael Beetz, investigador del Instituto de Inteligencia Artificial de la Universidad de Bremen

Michael Beetz, investigador del Instituto de Inteligencia Artificial de la Universidad de Bremen, se fija no solo en los prejuicios que el programador puede inferir a los algoritmos, sino también en los que se puedan derivar del aprendizaje automático, cuando la máquina va sola. “El problema general es cómo evitar los efectos negativos. Es muy complejo predecir consecuencias. Necesitamos una nueva generación de robots. No vale que la inteligencia artificial sirva para realizar una tarea. Necesitamos robots empáticos, que entiendan las consecuencias de sus actos y negocien cómo ejecutar la tarea. Esa es la nueva generación de robots. Si piensas en cómo trabaja la mente, cuando tomamos una decisión también imaginamos las consecuencias y eso debe ser parte de la inteligencia artificial”.

“Tenemos que ser más humanos”, añade María Amparo Alonso Betanzos, experta en informática biomédica y representante de la Asociación Española de Inteligencia Artificial (AEPIA). “No estoy hablando de la supervisión humana, que está en las directrices de la Unión Europea. Debemos tener en cuenta una visión más multinivel en la que incluyamos también consideraciones psicológicas y sociológicas porque nuestras herramientas van a ser utilizadas por las personas”.

De esta forma, la inteligencia artificial tiene que ser más humana en su esencia, en su concepción. Pero también en sus consecuencias, especialmente, cuando la tecnología empieza a ser accesible sin conocimientos informáticos.

Una de las grandes preocupaciones, que ya surgió con la primera Revolución Industrial, es el efecto en el trabajo, que ya ha dejado de ser un planteamiento teórico. La visión optimista es que la herramienta mejorará las capacidades de los trabajadores, ahorrará procesos tediosos, rutinarios o penosos e impulsará la economía. La pesimista, que las empresas aumentarán la rentabilidad a costa de destruir empleos susceptibles de mecanizar o aquellos que parecían a salvo, los que requieren habilidades creativas y razonamiento lógico. Ha sido uno de los ejes de la huelga de guionistas y actores de Hollywood.

Un estudio de OpenAI, Open Research y la Universidad de Pennsylvania calcula que los modelos de IA generativa, como ChatGPT, pueden tener algún efecto en el 80% de la fuerza laboral. En este sentido, la secretaria general del sindicato CCOO de Andalucía, Nuria López Marín, advierte en unas jornadas sobre transformación digital celebradas en la Universidad de Cádiz: “La digitalización es una revolución que nos está afectando en todos los planos de la vida, desde el social y económico hasta el laboral, porque todas las profesiones se ven afectadas. La transformación digital tiene que mejorar la vida de las personas y conllevar nuevos derechos laborales, porque hay un aumento de la productividad que supone mayores beneficios para la empresa y que, en consecuencia, debe suponer una mejora para los trabajadores y trabajadoras”. López Marín aboga por la revisión de aspectos como horarios, salarios, conciliación, formación e incluso las cotizaciones e impuestos. “Los robots no tributarán, pero sus dueños y dueñas sí”, reclama.

Y para evitar un reguero de víctimas del nuevo analfabetismo digital, Juan Ramón Astorga, ingeniero, profesor de la Universidad de Cádiz y directivo de Tecnalia, aboga por “educación y formación”, la primera para llevar la IA a todas las etapas escolares y universitarias y la segunda para asegurar la adaptación al cambio de todos los trabajadores. Astorga confía en la colaboración de entidades públicas y privadas.

Entre las primeras figuras la Fundación Estatal para la Formación en el Empleo (Fundae), que cuenta con una plataforma de contenidos en línea financiada con fondos NextGeneration. Entre las iniciativas privadas, IBM se ha comprometido a capacitar, con la herramienta SkillsBuild, a dos millones de estudiantes para finales de 2026. “Es fundamental que las siguientes generaciones conozcan lo que la IA aporta a las empresas y al conjunto de la economía, así como el cambio de paradigma que supone, con independencia de los estudios que cursen”, explica Pilar Villacorta, directora de Universidades y Educación Superior de IBM para España, Portugal, Grecia e Israel.

Los robots no tributarán, pero sus dueños y dueñas sí

Nuria López Marín, secretaria general CC OO en Andalucía

La iniciativa responde a datos como los surgidos en el informe del Institute of Business Value de IBM, que calcula que la implementación de la IA y la automatización requerirá que el 39,4% de la mano de obra vuelva a capacitarse en los próximos tres años. Globalmente, este porcentaje equivaldría a 1.400 millones de los 3.400 millones de trabajadores del mundo, según las estadísticas del Banco Mundial.

En todo este complejo panorama de equilibrio inestable entre un sistema fundamental para el desarrollo y los riesgos, faltan dos herramientas clave: la legislativa y la policial, entendida esta última como el mecanismo de control y seguimiento que vigile que la primera se cumple. “Estamos dando pasos. Hemos creado ya la primera Agencia Española para la Supervisión de la Inteligencia Artificial [AEISA]”, recuerda María Amparo Alonso Betanzos. Con los estatutos aprobados en agosto, la entidad, con sede en A Coruña, comenzará a funcionar a final de año con un nuevo marco regulatorio previsto para las próximas semanas.

Europa, bajo la presidencia española, ultima en estas semanas esas reglas del juego en sus países: la AI Act o Reglamento de Inteligencia Artificial. Esta normativa establecerá las obligaciones para proveedores y usuarios en función de cuatro niveles de riesgo de la inteligencia artificial:

“Inaceptables”. Estas aplicaciones estarán prohibidas y se refieren a sistemas que manipulen, de clasificación social o de identificación biométrica remotos o en tiempo real.

“De alto riesgo”. Tendrán supervisión permanente y agrupa a modelos que puedan perjudicar la seguridad o los derechos fundamentales, como aquellas vinculadas al coche autónomo o al control de fronteras o al ámbito laboral.

“De inteligencia generativa”. Contarán con exigencias de transparencia y se refiere a aplicaciones como ChatGPT o Bard.

De riesgos limitados”. Estarán obligadas a informar de forma fehaciente a los usuarios que están ante una creación de inteligencia artificial (imágenes, video o audio conocidos como deepfakes).

“La Unión Europea viene trabajando desde hace años en lo que será un reglamento, que es importante porque será de obligado cumplimiento, sin adaptación en cada país, como pasa con las directivas”, explica Cecilia Danesi, abogada especializada en IA y derechos digitales, profesora la Universidad Pontificia de Salamanca y otras universidades internacionales, divulgadora y autora de El imperio de los algoritmos (Galerna, 2023).

La inteligencia artificial tiene un poder expansivo enorme. Si un humano causa un daño, es limitado. El de un sistema de inteligencia artificial, en cuestión de segundos, es infinito

Cecilia Danesi, abogada especializada en IA y derechos digitales

Danesi, integrante también del grupo Mujeres por la Ética de la Inteligencia Artificial (Women4Ethical AI) de la Unesco, explica que la propuesta inicial aprobada en junio ha pasado a una fase de negociación entre los Estados miembros de la UE. España, durante la presidencia de este semestre, promueve que las negociaciones “aseguren que no se socava la innovación y que, al mismo tiempo, se protejan los derechos fundamentales de las personas”, según un documento de trabajo de la delegación española. La ministra de Justicia en funciones, Pilar Llop, coincide: “No podemos renunciar a las nuevas tecnologías, incluida la inteligencia artificial, porque sería renunciar a nuestro propio futuro”. Llop advierte sobre los abusos y los sesgos para concluir: “Debemos evitar que sustituyan una habilidad que es patrimonio de la humanidad: diferenciar el bien del mal”.

Hasta ahora, lo que se regula son las consecuencias de los actos. En el caso de Almendralejo se aplica la norma sobre pederastia del Código Penal o el Código Civil en reclamaciones de indemnización, por ejemplo. “El reglamento de la UE regulará el desarrollo y el uso de la inteligencia artificial, es decir, no se cambia ni el Código Penal ni las normas de responsabilidad civil, que se van a aplicar cuando un sistema de inteligencia artificial ocasiona daños, sino que es una regulación general preventiva, porque establece las obligaciones que van a tener que cumplir los sujetos que provean herramientas basadas en inteligencia artificial. La idea, y eso para mí es muy interesante, es evitar que el daño se produzca”, detalla Danesi.

La experta en derecho digital añade que “la inteligencia artificial tiene un poder expansivo enorme. Si un humano causa un daño, es limitado. El de un sistema de inteligencia artificial, en cuestión de segundos, es infinito”.

Todos los sistemas incluidos en la propuesta de reglamento ya se están usando, como el reconocimiento facial o de emociones en ámbitos laborales o escolares o los sistemas policiales predictivos o los dirigidos a manipular la voluntad o influir en procesos electorales.

También están ya funcionando los contenidos creativos generados por la IA. “Hay un gran debate con lo que son los derechos de autor porque los sistemas de IA generativa se alimentan libremente de todo lo que circula en la red”, advierte Danesi.

Felipe Gómez-Pallete, presidente de Calidad y Cultura Democráticas, sostiene que “la tecnología, una vez desarrollada, no hay quien la pare”. “La podemos regular, atemperar, pero llegamos tarde”, advierte.

Danesi matiza esa afirmación. “No se puede regular lo que no existe y, cuando existe, la regulación llega tarde”. Pero añade: “La propuesta de legislación de la UE es la más avanzada del mundo para regular la inteligencia artificial de manera integral y era necesario que corriera agua bajo el puente para poder hacer una ley lo más coherente y concienzuda posible. En los procesos legislativos, siempre vamos a estar retrasados porque no se puede regular lo que no conocemos y es imposible saber qué aplicaciones, qué usos van a tener estos sistemas en el futuro. Por el tipo de tecnología, siempre vamos a estar un poco haciendo malabares. Por eso no tenemos que regular una tecnología concreta sino áreas, sectores e impactos de la aplicación”.

Puedes seguir a EL PAÍS Tecnología en Facebook y X o apuntarte aquí para recibir nuestra newsletter semanal.

Seguir leyendo

]]>
Alex Schwander
<![CDATA[Soraya Casla, especialista en ejercicio oncológico: “La actividad física aumenta hasta un 40% la supervivencia”]]>https://elpais.com/salud-y-bienestar/2024-02-14/soraya-casla-especialista-en-ejercicio-oncologico-la-actividad-fisica-aumenta-hasta-un-40-la-supervivencia.htmlhttps://elpais.com/salud-y-bienestar/2024-02-14/soraya-casla-especialista-en-ejercicio-oncologico-la-actividad-fisica-aumenta-hasta-un-40-la-supervivencia.htmlWed, 14 Feb 2024 04:20:00 +0000Soraya Casla, segoviana, de 36 años y doctora en Ciencias de la Actividad Física y el Deporte, comienza hace poco más de una década a investigar los beneficios del ejercicio físico en los pacientes de cáncer y descubre que, a pesar de las evidencias sobre su influencia en el aumento de la supervivencia, en la prevención de recaídas y en la mejora de la calidad de vida, en España no se consideraba como un arma terapéutica más. Recorre medio mundo (Estados Unidos, Canadá, Dinamarca y Australia) para culminar su formación como especialista en ejercicio oncológico y, a su vuelta a España, comienza en 2015 a complementar los tratamientos de pacientes con programas personalizados. Hoy dirige un centro especializado y acaba de publicar Ante el cáncer, muévete (Vergara, 2024).

Pregunta. ¿Cómo surge el proyecto Ejercicio y Cáncer?

Respuesta. Nace tras darme cuenta de que no había una respuesta real sobre ejercicio físico oncológico para los pacientes. Durante los tratamientos, experimentan una serie de efectos secundarios para los que ya se ha demostrado que lo más efectivo para todos ellos es el ejercicio físico. Pero debe ser específico, adaptado e individualizado. Eso, en España, no existía. Después de desarrollar varios proyectos internacionales de asistencia y ver cómo trabajaban en otros países, hospitales e instituciones, me animé a desarrollar mi propio proyecto para llegar a los pacientes, formar, informar e investigar y que fuera lo más accesible posible.

P. ¿Qué beneficios aporta el ejercicio físico en las personas con cáncer?

R. Aumenta la supervivencia y reduce los efectos secundarios de los tratamientos. Muchas veces lo relacionamos con náuseas y fatiga, que lo son, pero lo que vemos es que los tratamientos tienen también un impacto posterior: favorecen o abren la puerta a que se puedan desarrollar otras enfermedades a nivel cardiovascular, problemas de hipertensión, obesidad, diabetes… Son enfermedades que se pueden desarrollar con una vida sedentaria y con los años, pero aparecen, cada vez más, en personas jóvenes. El ejercicio mejora esos efectos secundarios y, además, a largo plazo, reducimos también el riesgo de que puedan reaparecer el cáncer y otras enfermedades.

Soraya Casla, investigadora y especialista en ejercicio oncológico.

P. Esta conclusión la avala un estudio clínico.

R. Con Miguel Martín [catedrático de Medicina de la Universidad Complutense de Madrid y jefe de servicio de Oncología Médica del hospital universitario Gregorio Marañón] desarrollamos uno de los primeros ensayos en el que participaron más de 200 pacientes durante cuatro años. Cuando lo publicamos había mucha reticencia porque se creía que solo podían hacer cosas de una intensidad muy bajita. Demostramos que el ejercicio que mezcla intensidad alta e intensidad moderada mejora todos los aspectos fisiológicos: aumenta la masa muscular, mejora la capacidad de producir energía y el sistema circulatorio y cardiovascular. Y era tolerado por los pacientes tanto durante la quimioterapia como después.

P. ¿Hay un patrón general o cada cáncer y cada paciente es distinto?

R. Hay un protocolo de ejercicio que individualizamos en función del nivel del paciente, del momento de la enfermedad y de los efectos secundarios o limitaciones funcionales. Un paciente que ha hecho ejercicio toda su vida, aunque esté en tratamiento, debe seguir. Otras personas que nunca han hecho ejercicio físico tienen que empezar por caminar cinco minutos. También se tiene en cuenta el momento de la enfermedad. No son las mismas recomendaciones para una persona que está en quimioterapia, en radioterapia, en tratamiento hormonal o que ya ha terminado. Eso nos exige estar formados e informados para saber cuáles son los cambios fisiológicos y cómo tenemos que adaptarles la intensidad del programa. Y, por último, se consideran las limitaciones funcionales específicas. No es lo mismo que te hayan quitado toda la mama y los ganglios o que tengas una bolsa porque hayas tenido un cáncer de colon o que tengas una cirugía abdominal. Estas circunstancias generan limitaciones más específicas. En el libro, aporto recomendaciones concretas en función de todos estos aspectos para que todo el mundo pueda tener acceso a información real y científica sobre cuál es el beneficio del ejercicio y qué es lo que pueden hacer.

Caminar puede ser el comienzo, pero no el final

P. ¿Caminar no es suficiente?

R. Muchos estudios nos dicen que solamente caminar no genera los cambios que necesitamos. Es muy importante empezar por ahí cuando estás sano, porque te ayuda a mantener la salud, pero, cuando tenemos que recuperarnos, necesitamos una estrategia mucho más compleja que, en el caso del cáncer, no es solamente a nivel metabólico; también necesitamos generar nuevas conexiones neuronales, que se pierden por los tratamientos, y mejorar la funcionalidad y la movilidad. Hay que desarrollar una guía lo más completa posible. Caminar puede ser el comienzo, pero no el final. Hay que ir aumentando progresivamente e incluir ejercicio cardiovascular de fuerza y de equilibrio para que sea completo y realmente mejore la salud de forma integral porque el deterioro por los tratamientos es mucho más global. También es importante mantener la motivación. Cuando una persona viene al centro, queremos sorprenderla cada día.

P. ¿Cuántas veces y durante cuánto tiempo hay que hacer ejercicio a la semana?

R. Lo ideal, según la Organización Mundial de la Salud, es tres días. Cada una de las sesiones deben durar entre 35 minutos y una hora y cuarto. Nosotros solemos hacer entre 50 y 75 minutos, teniendo en cuenta descansos, ejercicios suaves y estiramientos.

P. ¿Antes o después del tratamiento?

R. Las personas que empiezan a hacer ejercicio físico antes de los tratamientos los toleran mejor y los efectos secundarios son menores: se fatigan mucho menos, tienen mucha menos náuseas y diarreas y menos necesidad de estar en cama por exceso de fatiga.

P. ¿Y una vez que se supera?

R. Hay que seguir haciendo ejercicio. Las personas que hacen ejercicio durante los tratamientos y lo dejan después tienden a volver a los niveles que tenían antes o justo después de la quimioterapia, por debajo de lo normal. Es necesario seguir activos para mantener los beneficios a largo plazo y prevenir enfermedades y cambios fisiológicos. Uno de los efectos secundarios más problemáticos es un fallo cardíaco, que puede surgir a los 10 o 15 años. Las personas que hacen ejercicio pueden reducir hasta un 40% la probabilidad de sufrirlo.

P. ¿Aumenta la supervivencia?

R. Los pacientes que hacen ejercicio físico después del diagnóstico aumentan entre un 30% y un 40% su supervivencia. Se reduce la probabilidad de tener cáncer otra vez o desarrollar segundos tumores y también otras dolencias cardíacas o diabetes o problemas metabólicos. El ejercicio físico les ayuda a vivir más y mejor. Se ha demostrado en los cánceres con más incidencia, como los de mama o colon. En el resto de tumores, no es que no pase, es que no sabemos si pasa porque no tenemos estudios tan largos ni con tanta calidad.

P. ¿Cómo es la secuencia desde el ejercicio a los beneficios?

R. La alta intensidad, que se puede conseguir con ejercicios de fuerza o cardiovasculares y tiene beneficios cardíacos, los mezclamos con otros para la regeneración nerviosa, que también es muy importante. Cuando introduces alta intensidad, la célula se da cuenta de que no es capaz de seguir el ritmo al cuerpo, se adapta y empieza a movilizar una serie de enzimas y proteínas para generar energía en las mitocondrias. Eso solo se consigue con bloques de alta intensidad. Pero el cuerpo necesita mantener esas fábricas de energía y enseñarles a producirla. Si no las utiliza, se las va a cargar. Ahí, la intensidad moderada cobra un papel esencial, porque es el tipo que ayuda y que promueve que las mitocondrias sean funcionales. Cuando funcionan bien, ayudan a preservar el músculo, mejoran también la irrigación periférica y aumenta el gasto de grasa. Esto previene otras enfermedades.

Caminar todos los días a paso rápido una hora ayuda a prevenir los tumores. Pero no vale el ejercicio que hacemos en el día a día, en nuestro trabajo o para desplazarnos. Tiene que ser extra

P. El ejercicio ayuda durante y después del cáncer. ¿También lo previene?

R. El ejercicio físico se ha relacionado con la prevención de hasta 26 tipos de tumores, pero tiene que cumplir las recomendaciones de la Organización Mundial de la Salud, es decir, hacer un mínimo de 150 minutos de ejercicio moderado a la semana. Pero aquí no es tan importante la alta intensidad. Incluso caminar todos los días a paso rápido una hora ayuda a prevenir los tumores. Pero no vale el ejercicio que hacemos en el día a día, en nuestro trabajo o para desplazarnos. Tiene que ser extra, es decir, salir todos los días a caminar 30, 40 o 50 minutos y hacer otro tipo de actividad que complemente.

P. ¿Por qué no se incluye el ejercicio en los protocolos del tratamiento del cáncer?

R. En 2010 me tuve que ir fuera a aprender sobre ejercicio oncológico porque aquí no había nada. Pero creo que ha cambiado mucho la percepción de la salud y actualmente cada vez hay más oncólogos que recomiendan hacer ejercicio físico. De hecho, a mí, muchas de mis pacientes me llegan porque sus fisioterapeutas, sus oncólogos o sus enfermeras oncológicas les han recomendado que hagan ejercicio físico durante los tratamientos y después. Pero hay que seguir formando e informando y dando apoyo tanto a los pacientes como a los clínicos.

Puedes seguir a EL PAÍS Salud y Bienestar en Facebook, X e Instagram.

Seguir leyendo

]]>
S. C.
<![CDATA[Gorrión Depredador y otras armas sin gatillos de las guerras híbridas: baratas, rápidas, indetectables y eficaces]]>https://elpais.com/tecnologia/2024-02-14/gorrion-depredador-y-otras-armas-sin-gatillos-de-las-guerras-hibridas-baratas-rapidas-indetectables-y-eficaces.htmlhttps://elpais.com/tecnologia/2024-02-14/gorrion-depredador-y-otras-armas-sin-gatillos-de-las-guerras-hibridas-baratas-rapidas-indetectables-y-eficaces.htmlWed, 14 Feb 2024 00:00:00 +0000La guerra híbrida es un término novedoso para una estrategia tan antigua como los conflictos militares. Hace referencia a la combinación de la fuerza convencional con cualquier otro medio, como la insurgencia, la migración, el terrorismo, la propaganda o la limitación de recurso básicos. Las tecnologías de la información han sumado un elemento más, complejo y desafiante: la ciberguerra. Los equipos de Análisis de Amenazas (TAG, por sus siglas en inglés) de Google, han completado un informe, coincidente con otros trabajos similares de S21sec o Kaspersky, sobre su uso en los dos conflictos más recientes y han detectado que, aun siendo las mismas armas, las estrategias en las guerras en Gaza y Ucrania muestran diferencias sustanciales en los tiempos, los actores, la intensidad y los objetivos que, lejos de circunscribirse a los escenarios bélicos, se expanden por todo el planeta con grupos como Gorrión Depredador (Gonjeshke Darande en persa).

El arte de la guerra, la obra atribuida al estratega chino Sun Tzu hace unos 2.500 años, ya se refería a la combinación de recursos ajenos a la fuerza para afirmar que “someter al enemigo sin luchar es el apogeo de la habilidad”. El militar ya hablaba de la importancia de la información y el engaño, dos vertientes fundamentales de la ciberguerra. Ambos están presentes en los conflictos de Gaza y Ucrania, pero con diferentes modelos, según el análisis de Google, que coincide con el de otras entidades de seguridad en la red.

La invasión de Ucrania fue precedida por un gran incremento de las amenazas y ataques cibernéticos contra Kiev con el fin de debilitar previamente las capacidades de defensa. Por el contrario, antes de la incursión de Hamás el 7 de octubre, que se saldó con 1.200 muertos y 240 rehenes en un solo día, estas acciones en la red mantuvieron una intensidad habitual. “Los riesgos de seguridad operativa de una operación cibernética superaban el beneficio potencial, por lo que no vimos algo como en Ucrania, donde, en los días y semanas anteriores a la invasión, se observó un gran aumento en la actividad”, explica Sandra Joyce, vicepresidenta de Mandiant Intelligence. Es decir, para Hamás, un incremento de los ataques en la web podría haber evidenciado la acción y no hubiera aportado beneficios.

Con los dos frentes abiertos, la ciberguerra se ha convertido en un arma más. Mientras Rusia mantiene su actividad en la red en todos los ámbitos y coordina los ciberataques con los lanzamientos de misiles, en Gaza, la ciberguerra se centra más en recopilar información, interrumpir servicios esenciales y desplegar todo tipo de propaganda.

En ambos casos, las tecnologías de la información han demostrado características singulares: las capacidades cibernéticas pueden ser desplegadas rápidamente a un costo mínimo, por lo que se han convertido en un recurso primario. Estas herramientas brindan la capacidad de recopilar información o difundir propaganda rápidamente y perturbar la vida cotidiana mientras se mantienen por debajo del nivel de la acción militar directa. “Rápido como el viento, silencioso como el bosque, raudo y devastador como el fuego, inmóvil como una montaña”, escribió Sun Tzu sobre las cualidades de un atacante en El arte de la guerra

“Estos actores”, comenta Joyce, “históricamente han dependido de herramientas, técnicas y procedimientos simples, pero muy efectivos. Pero hay signos de evolución y, potencialmente, se han desarrollado algunas capacidades más avanzadas, como una ingeniería social bastante elaborada para atacar a los ingenieros de programación con sede en Israel”.

John Hultquist, analista jefe de Mandiant, añade que algunas estrategias ya no van dirigidas a la progresiva infección de un sistema sino a la interrupción de sus funcionalidades sin dejar huella, como sucedió durante un apagón intencionado en una región completa de Ucrania: “La ventaja es que no estás introduciendo malware [programa malicioso] que lleva firma y se puede buscar e identificar. Esencialmente, es actuar como administrador del sistema y es realmente difícil de encontrar”

Los actores también difieren. En la guerra de Ucrania, Rusia utiliza su propia fuerza, tanto en la guerra convencional como en la informática, aunque Kiev ha denunciado el apoyo de China. Sin embargo, en la de Gaza, el actor principal está fuera del territorio en conflicto: Irán ha participado activamente en el 80% de los ataques contra Israel y países aliados, según los datos de Google. Los analistas de la compañía han detectado ataques individuales y a servicios esenciales, como sistemas de distribución de agua, así como el empleo de sofisticada ingeniería social para tomar el control de elementos críticos a través de sus responsables. También se han infectado móviles y los sistemas de alerta de ataques con misiles o las páginas de servicios como las de la policía o de hospitales para sembrar el desconcierto y el terror en la población. Por su parte, Irán atribuye a Israel la actividad del grupo Gorrión Depredador que, entre otras acciones, anuló las gasolineras del país del golfo Pérsico.

Este modelo de guerra no conoce fronteras. A medida que el conflicto continúa, aumenta la posibilidad de una inestabilidad regional más amplia. Infraestructuras críticas de EE UU y Europa han sido objetivos de ciberataques y a estos se han sumado Líbano y Yemen. “Son actores globales y eso significa que lo que está sucediendo aquí [el territorio en conflicto] tiene implicaciones en el mundo”, afirma Shane Huntley, director del TAG de Google, quien señala como dianas los próximos procesos electorales o acontecimientos de relevancia internacional, como los Juegos Olímpicos.

Otros informes

Los resultados de Google son coincidentes con los informes de otras entidades de seguridad en la red, como S21sec, de Thales Group. El Threat Landscape Report de esta compañía señala la proliferación de activistas de la red para ataques de denegación de servicios (DDoS), contra la integridad de sitios web y para la filtración de datos, la infiltración en sistemas, el despliegue de ransomware (secuestros informáticos) y la participación en espionaje.

Su actividad, según la investigación, se ha desplegado por canales como Telegram y foros de la Dark Web (sitios que no están indexados y a los que solo se puede acceder a través de navegadores especializados) como BreachForums, Dread Forum, Cracked, Nulled y Leakbase. Una cuarta parte de los actores apoya a Israel mientras el resto pretende favorecer a Palestina.

“La mayoría de estos grupos de amenaza están motivados ideológica o religiosamente, atacando selectivamente tanto a entidades israelíes como palestinas, así como a otras ubicadas en países no relacionados con el conflicto, incluyendo América, Europa, Asia y África”, afirma Sonia Fernández, responsable del equipo de Threat Intelligence de S21sec.

Los expertos de la empresa de ciberseguridad Kaspersky coinciden en que el conocido como hacktivismo de motivación geopolítica se intensificará y contribuirá a un panorama de amenazas más complejo y desafiante. “El ransomware sigue siendo un gran problema y los hackers están mejorando para atacar a empresas grandes y rentables con métodos más avanzados; los hacktivistas motivados por cuestiones sociales también son cada vez más activos, generando un aumento de posibles amenazas; y el sector del transporte y la logística es especialmente vulnerable a estos cambios por sus sistemas cada vez más digitales. Esta combinación de ciberdelincuencia y delincuencia tradicional constituye una grave amenaza para las cadenas de suministro mundiales”, asegura Evgeny Goncharov, responsable de Kaspersky ICS CERT

Puedes seguir a EL PAÍS Tecnología en Facebook y X o apuntarte aquí para recibir nuestra newsletter semanal.

Seguir leyendo

]]>
SOPA Images
<![CDATA[Google sustituye a Bard por Gemini e incorpora la nueva aplicación de inteligencia artificial a los móviles]]>https://elpais.com/tecnologia/2024-02-08/google-sustituye-a-bard-por-gemini-e-incorpora-la-nueva-aplicacion-de-inteligencia-artificial-a-los-moviles.htmlhttps://elpais.com/tecnologia/2024-02-08/google-sustituye-a-bard-por-gemini-e-incorpora-la-nueva-aplicacion-de-inteligencia-artificial-a-los-moviles.htmlThu, 08 Feb 2024 13:01:12 +0000Bard tiene los días contados. Fue presentado hace solo un año de forma precipitada como respuesta a la irrupción de ChatGPT, de OpenAI, para ofrecer una alternativa automática de respuesta conversacional. Pero era solo un modelo recién salido de los laboratorios de Google, donde se ha seguido desarrollando el sistema que aspira a ser definitivo: Gemini. Este jueves, la multinacional ha anunciado que Bard pasa a ser Gemini y que está disponible en la web y en aplicaciones para móviles con sistemas Android y también con iOS (Apple). En una primera etapa solo dispone de versión en inglés y se irá ampliando a idiomas asiáticos (primero en japonés y coreano) y, posteriormente, al español. Las versiones de pago permitirán su uso en herramientas de trabajo comunes como los documentos o correos electrónicos.

Durante años, Google ha liderado el mercado de búsquedas en internet. Pero OpenAI dio un vuelco al sistema al desarrollar un modelo de inteligencia artificial, ChatGPT, que ya no solo aportaba webs que, con más o menos acierto, incluían información relacionada con la búsqueda. El nuevo bot (programa automatizado con respuestas a instrucciones específicas que imita al cerebro humano) era capaz de resumir y expresar soluciones propias, una capacidad que se introdujo de forma vertiginosa en todos los ámbitos, desde las tareas escolares a la programación, desde consultas cotidianas a procesos industriales.

La amenaza al mercado hegemónico de Google llevó a una respuesta precipitada y se presentó Bard hace un año con una marca de nacimiento de provisionalidad. Este jueves se ha confirmado y el modelo pasa a ser ya Gemini. El nuevo sistema pretende ser no solo un sustituto del buscador, sino también, según Sissie Hsiao, vicepresidenta de Google, “un verdadero asistente de inteligencia artificial, conversacional, multimodal y más útil que nunca”.

La directiva de la compañía resume que la nueva aplicación aporta respuestas a preguntas escritas u orales y también interactúa con imágenes. Se convertirá en el asistente principal del teléfono, al que se podrá acceder mediante un nuevo acceso directo o por el conocido comando de voz (Hi Google) o por los atajos del terminal. Se podrán mantener conversaciones, reanudarlas desde el mismo móvil o desde el ordenador de escritorio.

Asistente

“Puede generar un título basado en la foto que has tomado o que estés leyendo un artículo y que la aplicación te permita no solo comprender el artículo más profundamente, sino también hacer preguntas sobre el mismo. Muchas funciones de Google Voice estarán disponibles a través de la aplicación Gemini, incluida la configuración de temporizadores, hacer llamadas y controlar dispositivos domésticos inteligentes”, explica Hsiao.

Imagen comercial de Gemini.

Estas aplicaciones estarán disponibles para los usuarios de Google, pero la época del todo gratis ha llegado a su fin y la compañía pretende monetizar desde el principio los sistemas más completos. De esta forma, según Sundar Pichai, máximo responsable de la compañía, la versión Gemini Advanced, que estará disponible por suscripción, “es más capaz de razonar, seguir instrucciones, codificar y colaborar de forma creativa”. “Por ejemplo”, añade, “puede ser tu tutor personal y adaptarse a tu estilo de aprendizaje. O puede ser un socio creativo y ayudarte a planificar una estrategia de contenidos o a crear un plan de negocio”.

Esta versión avanzada, como se anunció durante su presentación y recuerda ahora Pichai, “utiliza una combinación de 57 materias, incluidas matemáticas, física, historia, derecho, medicina y ética, con las que se pone a prueba tanto el conocimiento como la capacidad de resolución de problemas”.

Gemini Advanced estará disponible a través del nuevo plan Google One AI Premium y, con la suscripción, compatible con hasta cinco usuarios, se podrá utilizar con Gmail, Docs, Sheets, Slides y Meet. Incluye soporte técnico, edición profesional de imágenes, recomendaciones y acceso anticipado a funciones de prueba. La oferta inicial en Estados Unidos supone, para los ya suscriptores de Premiun, una cuota de 10 dólares (9,28 euros) más al mes.

La versión Duet AI, más orientada a empresas y desarrolladores, se convertirá en Gemini para Google Workspace y Google Cloud. Este último modelo dispone de habilidades específicas de gestión de procesos, desarrollo de programas y protección ante ciberataques, según la compañía.

ChatGPT 5

La maniobra empresarial de Google se produce ante la intención de OpenAI de lanzar este año la quinta versión de ChatGPT, según el máximo responsable de la empresa, Sam Altman, quien ha adelantado algunas de sus características en el podcast de Bill Gates.

El bot pretende avanzar en precisión, personalización y habilidades multimodales, por lo que la interacción será con todo tipo de archivos de texto, numéricos y audiovisuales, por separado o de forma conjunta.

De esta forma, ChatGPT5 pretende ofrecer una conversación más fluida y natural, con habilidades para comprender el contexto del usuario, aportar más capacidades creativas y ganar en seguridad ante posibles usos maliciosos.

Para conseguirlo, se han ampliado los modelos de lenguaje para su entrenamiento y se ha programado para aprender de la interacción con los usuarios. Entre sus usos más comunes, la compañía prevé que permita ofrecer servicios de atención personalizados, incorporarse como herramienta educativa o de entretenimiento e incorporarse a las tareas de gestión empresarial.

Puedes seguir a EL PAÍS Tecnología en Facebook y X o apuntarte aquí para recibir nuestra newsletter semanal.

Seguir leyendo

]]>
picture alliance
<![CDATA[Disparos láser y ondas de choque: el futuro de las armas se acerca a los robots asesinos]]>https://elpais.com/tecnologia/2024-02-07/disparos-laser-y-ondas-de-choque-el-futuro-de-las-armas-se-acerca-a-los-robots-asesinos.htmlhttps://elpais.com/tecnologia/2024-02-07/disparos-laser-y-ondas-de-choque-el-futuro-de-las-armas-se-acerca-a-los-robots-asesinos.htmlWed, 07 Feb 2024 04:20:00 +0000El DragonFire, un láser de alta potencia capaz de alcanzar una moneda situada a un kilómetro de distancia y con un coste inferior a los 12 euros por disparo, es el último modelo de arma que el Ministerio de Defensa británico ha ensayado con éxito. Las actuales guerras han acelerado los desarrollos tecnológicos bélicos hasta acercarlos a las armas autónomas o robots asesinos. Hoy, el soldado puede estar a miles de kilómetros del objetivo y convertirse en actor secundario de una acción mortal. La industria de la muerte se sofistica e incorpora misiles hipersónicos, barcos sin tripulación o cañones cinéticos mientras las potencias eluden una y otra vez la regulación del armamento.

“Los Estados siguen literalmente atrapados en un proceso diplomático en plena competición armamentística. Marean la perdiz dilatando la toma de decisiones. No hay transparencia ni intercambio verdadero de información sobre las investigaciones y hallazgos que realizan y se dedican a distraerse para tenernos distraídos”, afirma Reyes Jiménez, profesora de la Universidad Pablo de Olavide e integrante del grupo de Naciones Unidas sobre sistemas de armas autónomas letales (LAWS por sus siglas en inglés).

Esta “competición armamentística” ha mostrado en el último año una acelerada carrera. Estos son algunos de los desarrollos:

Armas de energía dirigida. El DragonFire, en el que se han invertido 117 millones de euros, es un ejemplo de armas de energía que, según el Gobierno británico, “pueden atacar objetivos a la velocidad de la luz y utilizar un intenso haz para atravesarlos, lo que provoca una falla estructural o resultados más impactantes”. Su bajo coste, “equivalente al uso de un calefactor doméstico durante una hora”, convierte a esta tecnología en candidata a sustituir a los misiles.

Láser de alta energía desarrollado por Lockheed Martin para Estados Unidos.

“Este tipo de armamento de última generación tiene el potencial de revolucionar el campo de batalla al reducir la dependencia de municiones costosas y el riesgo de daños colaterales”, afirma el secretario de Defensa del Reino Unido, Grant Shapp.

El Pentágono norteamericano también investiga estas tecnologías para misiones de ataque y contra misiles de crucero. La Armada de este país ha probado varios sistemas y prototipos de energía dirigida, pero solo se han instalado en algunos barcos de forma experimental.

Misiles hipersónicos. Los Hypersonic Attack Cruise Missile (HACM) son capaces de volar a velocidades superiores a Mach 5 (cinco veces la velocidad del sonido o 6.174 kilómetros por hora) y maniobrar mientras recorren la atmósfera, lo que los hace mucho más difíciles de detectar e interceptar en comparación con los misiles balísticos tradicionales.

Oleksandr Ruvin, director del Instituto Forense e Investigación Científica de Ucrania muestra restos de un misil hipersónico ruso (Kh-47 Kinzhal) el pasado 12 de mayo.

La Fuerza Aérea de Estados Unidos ha adjudicado un contrato de 1.407 millones de dólares (1.291 millones de euros) a la compañía Raytheon para su desarrollo y primera entrega. “Los nuevos fondos permitirán a la compañía llevar a cabo trabajos complementarios de investigación, desarrollo, prueba y evaluación para el programa HACM hasta 2028″, afirma un portavoz militar a DefenseScoop.

Igor Konashenkov, portavoz del Ministerio de Defensa ruso, ha admitido el uso de misiles hipersónicos Kinzhal para atacar “elementos clave de infraestructura militar ucraniana”. China también asegura disponer de este armamento y ha simulado un ataque naval complementado con la utilización de satélites para interferir la acción de radares y hacerlos indetectables.

Ataques electromagnéticos. Este último ensayo chino muestra una nueva estrategia orientada a los sistemas electromagnéticos. Estos ataques, según un reciente documento de la Fuerza Aérea de Estados Unidos, “buscan el acceso a sistemas de comunicaciones, navegación y localización” para “detectar, explotar, degradar, interrumpir y burlar las capacidades operativas”.

Prototipo de General Atomics Electromagnetic Systems (GA-EMS) de cañón de riel basado en lanzadores electromagnéticos que utilizan electricidad en lugar de propulsores químicos para disparar proyectiles a altas velocidades.

Energía cinética. A partir de la misma tecnología electromagnética, pero con otras aplicaciones, China experimenta también con armas basadas en proyectiles no explosivos que alcanzan velocidades hipersónicas y convierten la energía cinética en ondas de choque y calor destructivas. Según informa el South China Morning Post, Huang Jie, del Centro de Investigación y Desarrollo Aerodinámico de China, ha realizado simulaciones que demuestran que una esfera sólida de 20 kilos a cuatro veces la velocidad del sonido puede inutilizar un tanque de entre 40 y 60 toneladas. Esto se debe a que la onda de choque generada por el impacto viaja a través del vehículo, concentra la tensión en áreas estructurales críticas y provoca distorsión y fracturas. Estados Unidos también ha investigado este tipo de desarrollo propuesto por General Atomics Electromagnetic Systems.

Artillería de acecho y ataque de baja altitud. Conocidas por sus siglas en inglés como LASSO, estas armas son sistemas letales no tripulados diseñados para ser transportados por tropas. Constan de un cañón corto para el lanzamiento, de un dron con carga útil mortal, sensores y controles de vuelo de precisión. Tienen la capacidad de volar, rastrear y atacar objetivos sin línea de visión y vehículos blindados.

Todd Hinning, directivo de AeroVironment, presenta el modelo de LASSO Switchblade 600.

Drones subsónicos. El uso de enjambres de drones es ya familiar en los escenarios de guerra. Ahora se pretende dotarlos de mayor capacidad destructiva. La compañía Anduril ha presentado un dron diseñado para interceptar y destruir aeronaves enemigas antes de volver a su base para ser reutilizado. “El sistema no tripulado, denominado Roadrunner, es un vehículo aéreo autónomo propulsado por dos reactores que puede despegar y aterrizar verticalmente y volar a alta velocidad subsónica”, según la compañía.

Imagen de un Roadrunner de Anduril durante un despegue vertical.

En este campo, pero con otra estrategia, el programa Air Launched Effects (ALE) busca pequeños drones o cargas útiles que puedan ser lanzadas desde el aire por aeronaves más grandes, ya sean tripuladas o no.

Buques sin tripulación. A semejanza de los conocidos drones aéreos, los llamados Unmanned Surface Vessels son embarcaciones autónomas diseñadas para misiones de guerra antisubmarina y de minas. Estados Unidos dispone de cuatro unidades y ya las ha puesto a prueba en maniobras desarrolladas recientemente durante cinco meses en el Pacífico.

Entrega de la primera unidad de Orca desarrollada por Boeing.

“Uno de nuestros objetivos es poner las naves en situaciones tan diversas como podamos. Queremos explorar dónde están las limitaciones, y al hacerlo, limitar el riesgo asociado con las operaciones no tripuladas”, afirma el capitán Scot Searles, responsable del Programa de Sistemas Marítimos No Tripulados.

La compañía Boeing entregó el pasado diciembre la primera unidad de Orca, un dron submarino de 85 toneladas y 26 metros de eslora, de alta resistencia y con una bahía de carga útil modular. Puede navegar largas distancias de forma autónoma y colocar minas o realizar otras misiones sin tripulación a bordo.

Inteligencia artificial

Estos son solo algunos ejemplos de los recientes desarrollos de armas, acelerados por la incorporación de herramientas de inteligencia artificial, que se han sumado a todos los ámbitos bélicos, desde el diseño de sistemas, incluidos los ciberataques, hasta la fabricación y operación de dispositivos.

Joaquín de los Santos, jefe de Gestión Tecnológica de Navantia —segunda compañía de la industria de defensa española tras Airbus—, resume esta creciente incorporación de la inteligencia artificial durante un encuentro en los laboratorios de IBM en Zúrich (Suiza): “Primero se usó para recursos humanos y los departamentos financieros y legales. Después en los procesos industriales, con la creación de gemelos digitales. Ahora se ha incorporado a los escenarios de defensa, donde hay que tomar decisiones rápidas, con pocos datos y en condiciones de aislamiento y potencialmente hostiles”.

La conjunción tecnológica ha llevado al desarrollo de sistemas cercanos a los de armas autónomas letales, también conocidos como robots asesinos (killer robots), que preocupa a la comunidad internacional. En la última Convención sobre Ciertas Armas Convencionales, celebrada el pasado noviembre, más de 100 Estados han pedido infructuosamente un instrumento jurídicamente vinculante sobre las mismas.

La profesora de la UPO Reyes Jiménez es pesimista tras una década como observadora y participante en los intentos para controlar los riesgos que el desarrollo de la robótica y de las tecnologías emergentes suponen para la estabilidad de la seguridad internacional y el cumplimiento de los derechos humanos. Las propuestas de la mayoría se estampan contra la norma de que cualquier decisión se adopte por un consenso que las grandes potencias armamentísticas impiden una y otra vez. “Podemos decir que no ha habido progresos significativos, cero avances”, lamenta.

El principal escollo, “la imposibilidad de formular una definición común de esta clase de armas”, sirve de excusa para “atrapar a los Estados en un círculo vicioso”, asegura Jiménez en un trabajo publicado en Revista Electrónica de Estudios Internacionales. Algunos Estados (Reino Unido, Estados Unidos, Rusia, Francia, Italia, Japón, Israel, China o Corea del Sur) se escudan en que las defensas desplegadas en la actualidad no provocan problemas legales, éticos y humanitarios al no poder ser consideradas de autonomía plena o LAWS. Estas son las que, una vez activadas, pueden seleccionar y atacar objetivos sin intervención de un operador humano.

Sin embargo, para una gran mayoría de Estados y organizaciones, las armas actuales ya cuentan con sofisticados niveles de autonomía en algunas de sus funciones críticas. Reyes respalda la definición del Comité Internacional de la Cruz Roja y otros Gobiernos y entidades. Esta considera un sistema de arma autónomo aquel “que puede seleccionar (buscar o detectar, identificar, rastrear, seleccionar) y atacar (hacer uso de la fuerza, neutralizar, dañar o destruir) objetivos sin intervención humana”.

Las armas actuales se acercan a esta definición por la tecnología aplicada a algunas de sus funciones. Pero, además, Jiménez defiende su regulación porque incumplen también principios fundamentales establecidos en convenios internacionales, como la obligación de distinguir en todo momento entre personas combatientes y civiles (principio de distinción). Reyes pone como ejemplo a HARPY, un arma que fue diseñada para atacar sistemas de radar: “Puede reconocerlos, pero es incapaz de apreciar si el objetivo está rodeado de personas o bienes civiles”.

También vulneran el principio de proporcionalidad, que prohíbe lanzar ataques cuando se prevean muertos y heridos entre la población civil o que sean excesivos frente a la capacidad bélica del oponente. Las noticias diarias sobre las guerras demuestran claramente su incumplimiento.

En el mismo sentido, las actuales armas desoyen el principio de precaución en el ataque, que debe realizarse preservando a la población y a los bienes de carácter civil. Los convenios internacionales establecen que los combatientes no disponen de un derecho ilimitado para elegir sus medios y métodos de guerra. La realidad demuestra lo contrario.

Puedes seguir a EL PAÍS Tecnología en Facebook y X o apuntarte aquí para recibir nuestra newsletter semanal.

Seguir leyendo

]]>
UK MINISTRY OF DEFENCE
<![CDATA[ ‘Curra’ lega a su muerte la única posibilidad de salvar de la extinción al rinoceronte blanco del norte]]>https://elpais.com/ciencia/2024-01-24/curra-lega-a-su-muerte-la-unica-posibilidad-de-salvar-de-la-extincion-al-rinoceronte-blanco-del-norte.htmlhttps://elpais.com/ciencia/2024-01-24/curra-lega-a-su-muerte-la-unica-posibilidad-de-salvar-de-la-extincion-al-rinoceronte-blanco-del-norte.htmlWed, 24 Jan 2024 11:00:00 +0000A Curra, una rinoceronta blanca del sur de dos toneladas de peso, la mataron microscópicas bacterias del género Clostridium este pasado 25 de noviembre en el parque Ol Pejeta de Kenia. Pero su muerte tras esta desigual lucha biológica no ha sido en vano. Curra estaba gestando el primer embrión creado en laboratorio e implantado con éxito por el consorcio alemán BioRescue en estos animales. Es la única y exigua puerta para la supervivencia de la subespecie del norte, de la que tan solo quedan dos hembras: Najin y su hija Fatu. La experiencia de Curra como madre subrogada ha demostrado, por primera vez, que es posible. Su legado es la esperanza de evitar otra extinción.

Najin y Fatu, ambas descendientes de Sudán, fallecido en 2018 por causas naturales, sobreviven en Ol Pejeta con el triste honor de ser las dos únicas supervivientes de la subespecie de rinoceronte blanco del norte. Su imponente presencia es un vergonzante recordatorio para la humanidad, causante de haber precipitado a estos animales hasta el peligro crítico de extinción por la caza y el cambio climático.

El consorcio BioRescue, financiado por el Gobierno alemán y del que forma parte una decena de entidades internacionales, comienza hace 15 años un programa científico para producir y preservar a -196 grados Celsius en nitrógeno líquido 30 embriones fecundados en laboratorios de Berlín (Alemania) y Cremona (Italia) a partir de óvulos y esperma de los últimos 12 rinocerontes blancos del norte que habían llegado vivos a este siglo en reservas y zoológicos. Todos menos Najin y Fatu han muerto ya. En 2019, arrancan los trabajos de investigación para desarrollar una técnica de implantación en madres sustitutas.

“Seguimos enfoques científicos alternativos para crear nuevas crías de rinocerontes blancos del norte y garantizar la mayor diversidad genética de su futura población. Todas estas estrategias convergen en la producción de embriones in vitro y su transferencia exitosa a madres subrogadas para crear un embarazo”, detalla Susanne Holtze, científica del proyecto.

Thomas Hildebrandt, jefe del proyecto BioRescue-Leibniz-IZW, muestra el feto de rinoceronte gestado durante 70 días por 'Curra'.

El escaso remanente de embriones y ejemplares del norte obliga a probar primero con la subespecie del sur, de la que quedan algo más de 10.000 animales. De esta forma, óvulos de Elenore, que vive en el zoológico belga de Pairi Daiza, se fecundan mediante inyección intracitoplasmática (directa al óvulo) en un laboratorio de Italia con esperma de Athos, del zoológico austriaco de Hellbrunn.

Quedaba por desentrañar el complejo ciclo fértil de los rinocerontes para determinar el momento preciso de la transferencia. Para detectarlo, Curra convive con Ouwan, un macho vasectomizado utilizado como indicador. Los científicos observan un apareamiento, presuntamente estéril, salvo por un fallo en la vasectomía, el 17 y el 18 de septiembre, lo que evidencia que Curra está lista. Científicos y veterinarios de BioRescue, dirigidos por el Instituto Leibniz para la Investigación de Zoológicos y Vida Silvestre (Leibniz-IZW), implantan dos embriones en Curra el 24 de septiembre. Días más tarde, Ouwan pierde el interés sexual por ella: está embarazada.

Aunque la transferencia de embriones es ya una técnica común en humanos y en especies domésticas y ganaderas, nunca se había conseguido en rinocerontes. Si la transferencia funcionaba, se demostraba su viabilidad, la única puerta para la supervivencia de la estirpe de Najin y Fatu. “Ha sido un territorio completamente inexplorado y cualquier cosa, desde el enfoque de los protocolos de procedimiento hasta el equipo requerido, ha tenido que ser inventado, desarrollado y probado para que fuera seguro”, explica Thomas Hildebrandt, jefe del proyecto BioRescue-Leibniz-IZW.

Hildebrandt aclara que la técnica empleada es muy similar a la que se usa con personas o en ganado vacuno y equino. “Pero necesita una tecnología diferente”, precisa. “No es un experimento porque no hacemos ningún daño a los animales. Solo queremos hacer crías, por lo que técnicamente todo está aprobado por el Servicio de Vida Silvestre de Kenia, por el Gobierno keniano, porque no tiene carácter experimental”.

El implante no se ejecuta a través del órgano reproductor de la rinoceronta, sino a través de su aparato digestivo, previamente desinfectado. Por el recto, introducen un largo catéter para llevar el embrión hasta los oviductos, donde comienza la gestación. “El índice de éxito es muy alto, aunque la técnica es un desafío”, comenta el científico.

Susanne Holtze y Thomas Hildebrandt, en el momento del implante del embrión a 'Curra' en el parque Ol Pejeta de Kenia el pasado septiembre.

Todo está medido al segundo y al milímetro, desde la anestesia hasta la carga del dispositivo de implantación con el embrión. “Hay muchos elementos muy difíciles y desafiantes para este procedimiento. Sin embargo, nuestro equipo está tan bien entrenado que ya estamos preparando un próximo implante”, asegura Hildebrandt, que prevé ejecutarlo en mayo.

El rinoceronte blanco necesita un proceso de apareamiento que se prolonga durante más de una hora y precisa de hasta seis eyaculaciones para fecundar al óvulo de forma natural unos seis días después de la ovulación. “El cuello uterino de la hembra es extremadamente largo y enrevesado”, explica el jefe del proyecto. Si se realizara el implante a través del útero, se provocaría irritación y daños que impedirían el éxito de la operación. Con su técnica de llegar a los oviductos a través del recto se reduce la intervención a 20 minutos.

La técnica funciona y Curra cumple a la perfección su papel de madre subrogada. Gesta durante 70 días el embrión de un macho que llega a alcanzar 6,4 centímetros de longitud. Sus posibilidades de nacer vivo tras un periodo de gestación completo de entre 16 y 18 meses se elevaban al 95%.

Pero, pese a su placentera vida en Kenia y la monitorización permanente, el enemigo, esta vez, es invisible. Un episodio climático adverso de lluvias torrenciales inunda la reserva de Ol Pejeta y dispersa cepas bacterianas de Clostridium Paraclostridium bifermentans y Paenicolostridium sordellii que causan una infección mortal en Curra y su compañero Ouwan, que fallece tres días antes.

'Curra', momentos después de recuperarse de la anestesia administrada para el implante.

Frank Göritz, veterinario jefe del proyecto, lamenta el desenlace: “Presenciar la muerte de un animal con el que has trabajado durante tanto tiempo por razones que no puedes dominar es deprimente. Tratamos de controlar todos los factores que afectan al bienestar de los animales, pero en la naturaleza no puedes hacerlo con todo y, a veces, tus planes se ven frustrados. Es muy triste, pero tratamos de mirar hacia adelante y verlo como un hito para la misión”.

Inmediatamente después del incidente, el equipo establece un programa de urgencia de vacunación, aislamiento y reparcelación de las zonas donde habitan los rinocerontes, incluidas las dos únicas blancas del norte existentes.

El siguiente paso es analizar muestras del tejido del feto en los centros alemanes Max Delbrück de Medicina Molecular y Leibniz-IZW para asegurarse de que el apareamiento natural había sido estéril y que el embarazo se había producido por la implantación artificial del embrión. Este mes de enero se confirma y se abre la puerta a la esperanza de salvar al rinoceronte blanco del norte.

El consorcio alemán ha anunciado este miércoles que ya ha arrancado la nueva fase de rescate de la subespecie, que pasa por la elección de una nueva madre subrogada, otro macho señuelo y otra implantación, que podría ser ya con un embrión de rinoceronte blanco del norte en un plazo de dos o tres años.

El director del proyecto cree que no será inconveniente el hecho de que el embrión y la madre subrogada sean de subespecies distintas. Ya se consiguió una cría de forma natural en 1978 con una pareja del norte y del sur. “Estamos muy seguros de que los embriones de rinocerontes blancos del norte en nuestra madre sustituta del sur tendrán éxito”, afirma.

Y añade: “Podemos producir entre 20 y 25 crías de rinoceronte blanco del norte en los próximos dos o tres años. Aunque solo quedan dos hembras, no podemos conformarnos con la extinción de esta subespecie. Ahora podemos decir que lo conseguiremos. El éxito llega justo a tiempo para lograrlo. Queremos que las crías convivan con Najin y Fatu durante años para aprender el comportamiento social de su especie”, resalta Hildebrandt. La subvención de seis años del Ministerio Federal de Educación e Investigación de Alemania (BMBF) finaliza en 2025, por lo que se abre una carrera paralela para asegurar la financiación del proyecto tras el aval de que los implantes de embriones son posibles.

Puedes seguir a MATERIA en Facebook, X e Instagram, o apuntarte aquí para recibir nuestra newsletter semanal.

Seguir leyendo

]]>
BioRescue / Ol Pejeta
<![CDATA[El vídeo da síntomas de fatiga y el juego desde el móvil tomará el relevo como motor del 5G]]>https://elpais.com/tecnologia/2022-05-13/el-video-da-sintomas-de-fatiga-y-el-juego-desde-el-movil-tomara-el-relevo-como-motor-del-5g.htmlhttps://elpais.com/tecnologia/2022-05-13/el-video-da-sintomas-de-fatiga-y-el-juego-desde-el-movil-tomara-el-relevo-como-motor-del-5g.htmlFri, 13 May 2022 11:05:27 +0000El número de abonados a los servicios distribuidos mediante 5G, la última generación móvil, cuenta con más de 500 millones de usuarios en el mundo y llegarán hasta los 700 millones a finales de año. Sin embargo, el vídeo, que ha sido la locomotora de estos servicios, “da señales de fatiga”, según ha afirmado la directora de investigación de la consultora Omdia, María Rúa, en el Fórum 5G, el encuentro de multinacionales del sector que se ha clausurado este viernes en Sevilla. El relevo lo asumirá una nueva generación de juegos desde los móviles. Pero no será suficiente. Según la representante de la consultora internacional, el futuro pasa por operadores que ofrezcan, además de este segmento de ocio, vídeos, música, libros, educación, datos ilimitados… “Absolutamente todo”, afirma Rúa. Algunas operadoras españolas ya están sumando servicios a sus ofertas, que incluyen telemedicina, tiendas, seguros, internet para segundas residencias o alarmas.

La tendencia comenzó con las superapps, un único programa del móvil desde el que se puede encargar comida o transporte, acceder a compras, dinero, entradas, viajes o cualquier servicio. En América, la colombiana Rappi fue pionera, con un catálogo que permite que lleven efectivo al lugar que quiera el usuario, que acompañen a un familiar o que te hagan la declaración de la renta.

China sigue a la cabeza, con un 70% de los usuarios abonados a servicios 5G, seguida de Estados Unidos, Corea del Sur y Japón. Según los datos de la investigadora de Omnia, Finlandia es el único país europeo incluido en la lista de los mayores consumidores de productos de esta última generación móvil. España no llega tan lejos, pero es uno de los cinco países de la UE con una mayor implantación. El mercado emergente con mayor potencial es India.

El desarrollo de esta tecnología depende del desarrollo de aplicaciones que supongan una experiencia nueva para los usuarios, acceso a nuevos servicios y ventajas económicas para los operadores. El metaverso está a la espera. Pero mientras se consolida esta propuesta de mundo digital paralelo, el mercado tiene sus vistas puestas en los juegos en línea.

Pero no será suficiente. Este tren necesita más locomotoras y las principales operadoras ya están empezando a incluir en sus tarifas todo tipo de servicios mientras el vídeo en línea va perdiendo el trono. Cada hogar en Estados Unidos está suscrito, de media, a siete ofertas de streaming (visionado en la red), un mercado que empieza a dar señales de agotamiento, como muestra la primera pérdida de 200.000 suscritores registrada por Netflix en una década o que la cadena CNN haya cerrado su plataforma de streaming tan solo un mes después de su nacimiento.

En el juego y en juego están los 100 millones de usuarios de pago y los 12.000 millones de euros que prevén ingresar las empresas del sector en los próximos cuatro años. Y este negocio tiene sus vistas puestas en el cloud gaming (juego en la nube), que permitirá nuevos conceptos de ocio desde el teléfono si la tecnología 5G mantiene su desarrollo y consigue llegar al 40% de las suscripciones a servicios móviles.

Juan Olivares, director desarrollo Onmobile, una empresa especializada en juegos y otras ofertas de entretenimiento móvil, también sostiene que esta línea será fundamental en un futuro próximo. “Se han incorporado nuevas ofertas y nuevos jugadores. De los ingresos mundiales por gaming, el 52% procede de móviles, el mayor segmento”, explica. Pero para mantener la oferta a estos clientes se precisa del 5G, una generación que permite, según comenta, que la experiencia sea rápida, en movimiento y colectiva, así como que abra la puerta a nuevos conceptos, vinculados al metaverso y a los sentidos.

“Hasta ahora”, afirma Olivares, “hemos disfrutado con la vista o el oído. Pero, a partir de ahora, tendremos una experiencia multisensorial. Parecerá que lo tocaremos”. “El 5G nos va a dar movilidad y experiencia de jugar con la realidad virtual y la realidad aumentada, creando nuevas formas juego que no se conocen hasta la fecha enfocadas en las experiencias multisensoriales”, resume.

El jugador no es adolescente

El perfil del usuario, según Olivares, confirma una tendencia y depara una sorpresa. El dato que se consolida es que el juego no quiere estar atado: el 59,4% de los usuarios juega con el móvil. El dato inesperado es que el jugador no es adolescente (los usuarios de menos de 24 años solo suponen el 15,1%). Por el contrario, las franjas de edad con más consumidores son mayores de 45 años (35%), de entre 35 y 44 años (el 29,1%) y de entre 25 y 34 años (20,8%). El mayor poder adquisitivo de estos perfiles avala el futuro prometedor que auguran las previsiones.

La otra vertiente del desarrollo del 5G es la industria, que espera contar, según Narcis Cardona, catedrático de la Universidad Politécnica de Valencia, con “una robótica eficiente” con control háptico (interacción por tacto), gestual y remoto en un entorno mucho más realista.

Será un anticipo de la siguiente generación, cuando cada terminal genere información que participe en un sistema de inteligencia artificial colectiva. La conducción de vehículos, la logística y la industria robótica están detrás de estos desarrollos.

En este sentido, Cardona explica: “Si tenemos una persona que es capaz de visualizar y manipular maquinaria que está en un sitio remoto, y esto ya lo hemos hecho y lo hemos demostrado, o que, a través de realidad inmersiva, puede trasladarse eventualmente a otra ubicación, nos permitirá avanzar hacia aplicaciones industriales o de gestión mucho más avanzadas. La realidad aumentada o la realidad virtual inmersiva nos permitiría generar esos gemelos digitales que dejan de ser una pantalla plana en la que tengo datos de un conjunto de sensores para disponer de gemelos virtuales que realmente reproducen en tres dimensiones aquel escenario remoto que estoy intentando controlar”.

La clave será conseguir una latencia (respuesta) por debajo del milisegundo (el 6G espera llegar a 0,1 milisegundo) para la automatización, el control y el mantenimiento predictivo y remoto de los sistemas que Cardona define como “ciberfísicos”.

El catedrático de Valencia en más escéptico con el metaverso. “Seguiré en este mundo físico mientras la salud me lo permita”, bromea. Pero no solo por reticencias a un mundo que, en estos momentos, con las gafas adaptadas a estos proyectos, aíslan del entorno, sino porque, según Cardona, “sería necesario multiplicar por un factor de entre 100 y 200 la capacidad actual de las redes”. “Eso, de momento marea en todos los sentidos, no solo en cuanto a inversiones y costes de operación. Significaría dar servicio a unos 200 terabytes por kilómetro cuadrado y por hora: es una barbaridad”.

Puedes escribirnos a rlimon@elpais.es, seguir a EL PAÍS TECNOLOGÍA en Facebook y Twitter y apuntarte aquí para recibir nuestra newsletter semanal

Seguir leyendo

]]>
<![CDATA[El deporte se encomienda a la inteligencia artificial: así la usará el Sevilla para fichar]]>https://elpais.com/tecnologia/2024-01-23/el-deporte-se-encomienda-a-la-inteligencia-artificial-asi-la-usara-el-sevilla-para-fichar.htmlhttps://elpais.com/tecnologia/2024-01-23/el-deporte-se-encomienda-a-la-inteligencia-artificial-asi-la-usara-el-sevilla-para-fichar.htmlTue, 23 Jan 2024 05:00:00 +0000El último fichaje del Sevilla no es habitual en los campos: no corre ni defiende ni remata y su físico es de otro ámbito. Y, sin embargo, va ganando terreno y se posiciona como un próximo jugador clave. Se trata de la inteligencia artificial (IA), cuya aplicación en el deporte, según la firma de investigación Mordor Intelligence, crecerá un 28.72% hasta 2026. Equipos como el inglés Liverpool, el Valencia español, el alemán Schalke 04, el Club América de México o numerosos equipos de las principales ligas de Estados Unidos ya la utilizan para fichajes, analizar el rendimiento de los atletas, desarrollar patrones de entrenamientos, abordar lesiones e identificar pautas de juego eficaces.

Para entrar en esta liga de equipos tecnológicos, el Sevilla se ha aliado con IBM, una de las multinacionales que, junto a Microsoft y Google, lideran la carrera de la inteligencia artificial. El club y la tecnológica han desarrollado una herramienta, a partir de una base de datos deportiva de 200.000 informes, que permite seleccionar a los jugadores por sus características mediante la interacción con la máquina a través del lenguaje natural. “Hay otros clubes con más recursos y eso nos obliga a hacer las cosas de otra forma”, explica Elías Zamora, responsable del departamento de datos del Sevilla.

La herramienta utiliza inteligencia artificial generativa que, a diferencia de los sistemas convencionales que buscan en fuentes restringidas y arrojan resultados limitados, puede crear contenido inédito a partir de bases de datos complejas con un preentrenamiento y una fórmula de aprendizaje automático (machine learning). El resultado es más preciso y se puede perfilar o afinar a través de un diálogo directo con la máquina.

Durante la presentación de la herramienta, denominada Scout Advisor y concebida para ayudar a la selección de jugadores a partir de los informes de los ojeadores del Sevilla, la inteligencia artificial demostró que puede barrer en segundos los 200.000 informes del club y arrojar una lista de los futbolistas acordes a las características requeridas, con la identificación del equipo en el que juega, su precio, la caducidad del contrato vigente, el porcentaje de similitud con el ideal que se busca y una nota media en función de todos los parámetros utilizados.

Fernando Suárez, director de programas de IBM, explica que fichar es una de las acciones más complejas de un club al conjugar una alta inversión con un elevado grado de incertidumbre. “Hasta ahora se basa en personas que observan y analizan un número limitado de datos. La IA salva esta brecha”.

El resultado es frío. “El liderazgo o el carisma no lo detecta la máquina”, admite Suárez. Por eso, la decisión final es humana. “Es una fuente de información. La inteligencia artificial no nos hubiera dicho: ‘ficha a [Kylian] Mbappé cuando tenía 13 años”, bromea Zamora en alusión al deseado delantero del PSG.

Pero Emilio de Dios, jefe de los ojeadores del Sevilla, cree que se trata de una herramienta que ha venido a cambiar por completo la gestión: “Pasamos de la vela a la electricidad. Reduce a segundos lo que antes suponía 500 horas de búsqueda. Nos facilita el trabajo de selección final y nos permitirá elegir mejores jugadores”. La primera prueba efectiva será ya en la campaña de fichajes para la próxima temporada.

Riesgos

Pero la aplicación de la inteligencia artificial no está exenta de riesgos, también en el deporte. Alberto Carrio Sampredro, profesor de la Universidad Pompeu Fabra y autor de un marco jurídico y ético para su uso en este ámbito, advierte en su investigación: “La manipulación de los deportistas y de la competición son probablemente los más acuciantes. Pero hay otros, como la modificación radical de la gobernanza del deporte y las competiciones deportivas, que quedarán completamente mediatizadas por esta tecnología disruptiva”.

Javier Pérez Triviño, también de la Peompeu Fabra, detalla en otro trabajo las principales amenazas de la IA para los deportistas: la pérdida de autonomía sobre su rendimiento, la desigualdad de quienes carezcan de acceso a la tecnología, la pérdida del elemento humano de la práctica deportiva, la disrupción en la comparación de méritos y la pérdida de emoción de la competición. “La IA puede ser aceptada en el deporte, pero, en todo caso, deberán establecerse medidas que distingan los tipos de mejoras y que sean para garantizar el respeto a la primacía de los talentos naturales en el logro deportivo y la igualdad”, afirma.

Fernando Suárez, como responsable del programa tecnológico por parte de IBM admite las cautelas: “No vale cualquier tipo de IA”. En este sentido, el programa del Sevilla se ampara en la plataforma de la compañía WatsonX para garantizar que el sistema sea “abierto, preciso, escalable y gobernable”.

Pese a las cautelas, la IA en el deporte, como en el resto de ámbitos, experimenta un crecimiento pujante. El Liverpool fue uno de los primeros en contratar los servicios de DeepMind (Google) para ayudar en la toma de decisiones al entrenador.

Globant, LaLiga Tech y Microsoft se han unido para desarrollar proyectos vinculados al fútbol, baloncesto, rugby y tenis. La tecnológica Sparta Science utiliza la IA para monitorizar los puntos críticos físicos de los deportistas a través de un modelo que recopila hasta 3.000 datos de los cuerpos de los deportistas. El equipo de baloncesto Cleveland Cavaliers (NBA) y el de béisbol Colorado Rockies la usan y aseguran haber reducido en casi un 40% las lesiones de sus jugadores.

Los programas de Second Spectrum permiten evaluar los rendimientos individuales y de equipo, así como asesorar en decisiones de estrategia a los entrenadores. La NBA ha adoptado los sistemas para mejorar la información a los espectadores con gráficos automáticos.

En la Fórmula 1, la asociación con los últimos avances tecnológicos viene desde los orígenes de la competición y la inteligencia artificial de compañías como AWS (Amazon), Dell y Oracle se ha generalizado para diseñar las estrategias de carrera.

Puedes seguir a EL PAÍS Tecnología en Facebook y X o apuntarte aquí para recibir nuestra newsletter semanal.

Seguir leyendo

]]>
David Borrat
<![CDATA[Así es la carrera por conseguir predicciones meteorológicas fiables a largo plazo ]]>https://elpais.com/ciencia/2024-01-17/asi-es-la-carrera-por-conseguir-predicciones-meteorologicas-fiables-a-largo-plazo.htmlhttps://elpais.com/ciencia/2024-01-17/asi-es-la-carrera-por-conseguir-predicciones-meteorologicas-fiables-a-largo-plazo.htmlWed, 17 Jan 2024 04:20:00 +0000Las consecuencias de una predicción meteorológica eficiente van mucho más allá de la planificación de unas vacaciones. Disponer de datos precisos sobre un periodo de tiempo prolongado, más allá de los tres días que actualmente suponen las estimaciones más fiables, permitiría salvar vidas y evitar pérdidas económicas que un estudio publicado en Nature communications cifra en 143.000 millones de dólares anuales (131.565 millones de euros). Gigantes tecnológicos como Google o IBM, en colaboración con la NASA, e instituciones de la UE y de otros continentes, se han sumado a los objetivos del plan de Naciones Unidas para mejorar los sistemas de alerta temprana y desarrollan herramientas para aprovechar los avances de la inteligencia artificial con el fin de alcanzar una predicción fiable a medio y largo plazo. Entender el cielo es uno de los retos científicos y tecnológicos de nuestro tiempo.

Tormentas, inundaciones, sequías, olas de calor, huracanes y otros fenómenos meteorológicos extremos suponen cada año miles de millones en costes que, en su mayoría (63%), se corresponden con la evaluación de pérdidas humanas, según el estudio de Nature liderado por investigadores de Nueva Zelanda. Entender estos eventos adversos y anticiparlos es fundamental y se ha convertido en un objetivo clave de la agenda tecnológica.

Google DeepMind, la compañía de inteligencia artificial del gigante tecnológico norteamericano, ha publicado en Science un modelo de pronóstico del tiempo basado en aprendizaje automático para aportar predicciones a 10 días “mejores, más rápidas y más accesibles que los enfoques existentes”, según el estudio. El modelo, denominado GraphCast, superó a los sistemas tradicionales en el 90% de los casos probados.

Frente a los actuales modelos de análisis numéricos de datos a base de emplear recursos computacionales costosos y complejos, GraphCast recurre al aprendizaje automático entrenado a partir de datos históricos para arrojar un pronóstico preciso de 10 días en menos de un minuto. “Creemos que esto marca un punto de inflexión en la predicción meteorológica”, afirman los autores, dirigidos por Remi Lam, científico de DeepMind.

Una imagen de una aplicación de IBM para predicción meteorológica.

En esta carrera también está IBM, en colaboración con la NASA, con una propuesta, también de aprendizaje automático a partir del modelo fundacional (entrenado con un amplio espectro de datos sin etiquetar) geoespacial de la compañía tecnológica. Este enfoque permite analizar millones de datos generales para realizar distintas tareas.

“Los modelos fundacionales de inteligencia artificial que utilizan datos geoespaciales [meteorológicos, de sensores y de satélite] pueden cambiar las reglas del juego porque nos permiten comprender mejor, preparar y abordar los numerosos fenómenos relacionados con el clima que afectan a la salud de nuestro planeta de una manera y a una velocidad nunca vistas”, explica Alessandro Curioni, vicepresidente de IBM para Europa y África y director del centro de investigación de la compañía en Zúrich (Suiza).

El programa ya se ha utilizado para analizar islas de calor urbanas para reducir el estrés térmico en hasta tres grados centígrados y para planificar una campaña de reforestación con 15.000 millones de árboles en Kenia en la próxima década. También se estudia, con el Consejo de Instalaciones Científicas y Tecnológicas (STFC) de Reino Unido, el impacto del clima extremo en operaciones e infraestructuras de aviación y un proyecto de restauración natural de masas forestales que eviten inundaciones. Este ya cuenta con una experiencia piloto en Glasgow.

Para Kate Royse, directora del centro Hartree del STFC, estos modelos “permiten tomar decisiones más inteligentes fundamentadas en la predicción y gestión precisas del riesgo de inundaciones, que es fundamental para la planificación futura de las ciudades”.

Mapa del Centro Europeo de Pronósticos Meteorológicos a Medio Plazo.

“Nos enfrentamos dramáticamente a los efectos acelerados del cambio climático. Necesitamos mitigar mejor y prepararnos para estos eventos. La IA podría ayudar con eso”, advierte en la publicación de investigación europea Horizon el profesor de la Universidad Politécnica de Milán Andrea Castelletti, experto en gestión de recursos naturales

Catelletti coincide con el enfoque de los gigantes informáticos en que los modelos actuales de predicción se fundamentan en algoritmos para analizar grandes cantidades de datos sin alcanzar una precisión óptima. “Todavía tienen debilidades”, admite Castelletti para afirmar: “La inteligencia artificial podría resolverlas”.

“Los modelos climáticos existentes no son muy buenos para ciertos fenómenos meteorológicos extremos. Las olas de calor en Europa, por ejemplo, están aumentando mucho más rápido en el mundo real en comparación con lo que los modelos nos dicen que debería suceder. Es importante pronosticar los extremos para que podamos tener alertas tempranas”, coincide Dim Coumou, experto en climatología de la Universidad de Ámsterdam (Países Bajos).

CLINT, un proyecto de investigación financiado por la UE en el que participa España, combina la inteligencia artificial con los datos de la red europea de satélites Copernicus para mejorar la predicción climática. El Centro Europeo de Pronósticos Meteorológicos a Medio Plazo, al igual que IBM y Google, también está aplicando aprendizaje automático en sus programas.

Otro proyecto europeo denominado XAIDA, y en el que también participa España, intenta comprender las causas subyacentes de los fenómenos meteorológicos extremos. “Se trata de comprender el papel del cambio climático en fenómenos que van desde las olas de calor hasta las sequías y las lluvias extremas. Queremos conocer los factores determinantes”, explica Coumou.

Fenómenos adversos y raros

Uno de los obstáculos para alcanzar esta precisión es la información disponible para entrenar la inteligencia artificial. Aunque parezca que existe información de décadas, esta puede no ser relevante para entender los eventos más adversos. “Los eventos extremos son, por definición, raros. Así que no siempre tienes muchas observaciones. Ese es un gran obstáculo si se quieren utilizar métodos de inteligencia artificial”, detalla Coumou.

En este sentido, el proyecto CLINT pretende que los sistemas de IA sean los que generen esos datos a partir de la información histórica y que estos permitan entrenar el aprendizaje automático para mejorar las predicciones.

Algunas iniciativas se fijan en fenómenos concretos para avanzar en pronósticos precisos. Es el caso del laboratorio CRUCIAL de las universidades de Lancaster y Exeter, en Reino Unido, que intenta determinar el número de huracanes en el Atlántico en 2024.

“Los cambios en las temperaturas de los océanos, impulsados por el cambio climático, significan que el registro histórico de huracanes ya no es una buena guía para predecir futuros huracanes”, comenta Kim Kaivanto, profesor de Economía y miembro de la iniciativa CRUCIAL.

Del mismo modo, investigadores del Instituto Coreano de Ingeniería Civil y Tecnología de la Construcción (KICT) han desarrollado un sistema para pronosticar inundaciones repentinas con una hora de anticipación. Geon-Wook Hwang investigador de este instituto, explica: “Un pronóstico, aunque sea preciso, no tiene ningún valor como información si no llega lo suficientemente pronto para reducir significativamente las víctimas y los daños a la propiedad causados por las inundaciones repentinas”.

Puedes seguir a MATERIA en Facebook, X e Instagram, o apuntarte aquí para recibir nuestra newsletter semanal.

Seguir leyendo

]]>
Zoltan Balogh
<![CDATA[Facturar desde casa, escáneres 3D y trenes a las puertas de embarque: así será volar]]>https://elpais.com/tecnologia/2023-12-23/facturar-desde-casa-escaneres-3d-y-trenes-a-las-puertas-de-embarque-asi-sera-volar.htmlhttps://elpais.com/tecnologia/2023-12-23/facturar-desde-casa-escaneres-3d-y-trenes-a-las-puertas-de-embarque-asi-sera-volar.htmlSat, 23 Dec 2023 04:20:00 +0000Más de 19.000 millones de pasajeros usarán cada año los aeródromos del mundo en 2040, según las previsiones del Consejo Internacional de Aeropuertos (ACI, por sus siglas en inglés). Es el equivalente a gestionar el tránsito de 2,5 veces la población mundial. Solo en España se han batido los récords de 2019 este verano (1,2% más vuelos) y se volverán a superar este invierno (12,8% más), según la Asociación de Líneas Aéreas. Aeropuertos Españoles y Navegación Aérea (AENA) prevé llegar a 280 millones de viajeros este año. Esa ingente migración se ve sometida a un tedioso proceso de transporte urbano, esperas, registros, desplazamientos internos y controles que se repiten una y otra vez hasta convertir la experiencia en un ritual infernal. “La tecnología es la única llave para mejorar”, asegura Ricardo Fernández, director general de la empresa digital de viajes Destinia. Un informe de la consultora internacional Oliver Wyman en colaboración con ACI muestra cómo la biometría, la inteligencia artificial y la automatización marcarán el transporte aéreo. Así será volar:

Facturación desde casa. Rana Nawas, ingeniera formada en Oxford, especializada en servicios de transporte y coautora del último informe de Oliver Wyman, defiende firmemente que “solo porque algo aún no se ha hecho, no significa que no se pueda hacer”. En su visión de los aeropuertos del futuro no escucha el traqueteo incesante de las ruedas de las maletas por la ciudad hasta la conexión con el aeropuerto. “Definitivamente, la tendencia es que el equipaje se recogerá en casa o se dejará en un depósito”, asegura. “La barrera que hay que superar es realmente la seguridad”, admite. Ricardo Fernández los ve igual: “A corto plazo es un poco complicado porque, dentro de la facturación, el peso o el tamaño tienen importantes implicaciones en los volúmenes que se pueden permitir en la bodega de los aviones. Pero, realmente, esto no tardará en llegar como ha llegado el billete digital u otras tecnologías”.

Colas en mostradores de facturación de la Termina T1 del aeropuerto de El Prat.

Conexión de la ciudad con el aeropuerto. “Vemos una disminución en el número de personas que va en automóvil y taxi, por lo que es una dimensión en la que los aeropuertos deben pensar”, advierte Nawas. El Aeropuerto de Ginebra decidió en 2022 no ampliar más las plazas de aparcamiento, promover el uso de transporte público y utilizar el espacio que ocupan los coches para otros servicios. Más de la mitad de los viajeros prescinden ya de vehículos propios y taxis para llegar.

Paul Griffiths, director general del aeropuerto de Dubái va más lejos: “Imagine un tren con vagones programados para desacoplarse y quedarse en una terminal específica. Ese vagón te llevará adonde te espera tu vuelo. En lugar de tener un sistema de carreteras y ferrocarriles que deje a los pasajeros en la terminal principal, se podría llegar directamente a las puertas de embarque”. Griffiths cree que el diseño del futuro aeropuerto “debe reconsiderarse por completo”.

Control de seguridad en el aeropuerto de El Prat.

Control de acceso. “Va a ser mucho más agradable, fluido y eficiente. Y no es solo una ilusión. Ya existe”, afirma Nawas. “Lo que va a suceder”, explica, “es que vas a obtener tu tarjeta de embarque en el teléfono y este compartirá la información con los sistemas del aeropuerto, que te irán indicando la puerta y cómo llegar. Será un paseo por una senda en la que no te detendrás [concepto definido como On the move]. Caminarás y el teléfono y el aeropuerto compartirán tus datos, leerán tus parámetros biométricos y sabrá exactamente quién eres y el estatus migratorio”.

Ricardo Fernández coincide. “La tecnología para el reconocimiento facial está muy popularizada. Ya la vemos en muchos aeropuertos europeos e internacionales (Aena la utiliza). Las ventajas son evidentes: facilita el trabajo de los agentes de seguridad y la comodidad de los viajeros. Pero siempre y cuando esta información no se use con fines comerciales”.

Control de pertenencias personales y equipajes de mano. Es una de las etapas más desesperantes al obligar a mantener largas colas, deshacer la maleta, quitarse los zapatos, cinturones y objetos metálicos, desalojar los bolsillos y separar los dispositivos. En España, Aena va a implantar en los próximos años los escáneres 3D de forma generalizada. Este sistema toma medidas desde diferentes ángulos para crear una imagen final tridimensional y con mucho detalle. “Será obligatorio en Europa muy pronto y va a ser un gran paso para el turismo”, afirma el director de Destinia.

La última feria tecnológica Gitex Dubai presentó el Gscan, un modelo capaz de identificar la forma y composición de cualquier contenido a través del movimiento de las partículas subatómicas, que aportan una imagen e información precisa del interior de cualquier entorno. Está pensado para analizar desde grandes estructuras hasta las mercancías portuarias y también objetos de menor tamaño.

Un laboratorio estadounidense y la dirección de Ciencia y Tecnología del Departamento de Seguridad Nacional de EE UU han desarrollado un escáner de alta definición que puede identificar amenazas minúsculas y reducir los falsos positivos, además de un dispositivo para revisar en dos segundos el calzado sin necesidad de quitárselo. “Estos elementos podrían acelerar el proceso de revisión entre un 15% y un 20%, así como optimizar los procesos de seguridad, sin dejar de detectar amenazas”, asegura, Bill Frain, directivo de la compañía que los desarrolla

Jesús Hernández, abogado, añade un elemento a considerar: el respeto a la intimidad. “Implantar este tipo de tecnología exige garantizar que no se produce una intromisión en la privacidad de las personas al tener acceso al detalle de sus pertenencias e incluso a las formas de su cuerpo. No es un derecho absoluto, por lo que puede verse limitado en aras de la seguridad. Pero hay que encontrar el término medio”, afirma.

Zona comercial del aeropuerto Adolfo Suárez en el camino que lleva a los viajeros hacia sus puertas de embarque.

Esperas para el embarque. “El aeropuerto no solo permitirá ir de compras, sino también entretenimiento. Los pasajeros se están volviendo mucho más sofisticados y exigentes. La clave del éxito será permitir al cliente personalizar su experiencia. No es lo mismo un pasajero de negocios que quiere ir rápido que una familia”, afirma la experta en servicios de transporte. Nawas ve una oferta comercial más ligada a pantallas a través de las cuales el cliente podrá adquirir cualquier cosa y recibirla en su puerta de embarque o reservar una mesa en los restaurantes. Y el enorme espacio que ahora ocupan las tiendas podría ser sustituido por otros servicios, como piscinas, gimnasios, salas de masajes o cines.

“El tiempo es más importante que nunca. Si quiero pasarlo en los aeropuertos, debe ser mi elección, no por las colas y los controles. Tenemos que usar la biometría y tenemos que usar la inteligencia artificial para predecir el tiempo que pasamos en las terminales”, afirma Diego Arrosa, director de Aeropuertos de Uruguay, en el informe de Oliver Wyman.

El vuelo. Aquí la tecnología aún no ha encontrado respuestas. El poco espacio disponible se enfrenta a varios condicionantes, además de a la presión de las ofertas de bajo precio: el aumento de la demanda, que obliga a maximizar el número de pasajeros por vuelo; el incremento de costes, que lleva a las aerolíneas a ofrecer aviones más pequeños y eficientes para ahorrar en combustible y gastos operativos; y los requisitos técnicos de seguridad, que obligan a disponer de espacios libres necesarios en caso de emergencia. “No tenemos una visión de cómo va esto, cómo podemos ampliarlo, cómo podemos hacerlo comercialmente viable”, admite Nawas.

Una de las claves será la disposición de combustibles de aviación sostenibles (SAF, por sus siglas en inglés) más baratos, que son, además, imprescindibles para cumplir con los requisitos de reducción de contaminación. “Todavía no tenemos la tecnología para llegar allí, pero hay mucha gente inteligente y se están invirtiendo muchos miles de millones de euros para responder a esta cuestión”, admite la ingeniera. Según los cálculos de Oliver Wyman, para 2030 se dispondrán de hasta 20.500 millones de litros de SAF, pero el sector aéreo necesitará tres veces más no para llegar a las cero emisiones, sino para mantenerlas en los niveles de 2019.

Conexiones y llegada. A juicio de Ricardo Fernández, estas circunstancias son también una batalla por ganar. “Aspectos como la conectividad en el vuelo, la recogida de maletas o el control de seguridad en destino pueden ser mejorados”. “La tecnología es la única llave para hacerlo”, concluye.

Puedes seguir a EL PAÍS Tecnología en Facebook y X o apuntarte aquí para recibir nuestra newsletter semanal.

Seguir leyendo

]]>
Elizabeth Ruiz
<![CDATA[Las grandes compañías buscan cómo asegurar un desarrollo ético y legal de la inteligencia artificial]]>https://elpais.com/tecnologia/2023-12-20/las-grandes-companias-desarrollan-plataformas-para-asegurar-un-desarrollo-etico-y-legal-de-la-inteligencia-artificial.htmlhttps://elpais.com/tecnologia/2023-12-20/las-grandes-companias-desarrollan-plataformas-para-asegurar-un-desarrollo-etico-y-legal-de-la-inteligencia-artificial.htmlWed, 20 Dec 2023 04:20:00 +0000Europa ha dado un paso adelante con la aprobación de la primera normativa del mundo para regular la inteligencia artificial. Esta categoriza las aplicaciones de la herramienta en función de sus riesgos y prevé duras sanciones para los infractores, que pueden llegar a los 35 millones de euros o 7% del volumen de negocio o, en el menor de los casos, 7,5 millones o 1,5% del mismo. La UE establece un periodo de transición antes de su aplicación definitiva en 2026, un tiempo que las empresas tendrán que utilizar para asegurar que sus desarrollos cumplen la ley. Gigantes como IBM, Intel o Google, favorables a la regulación, han desarrollado plataformas y sistemas para garantizar que, ya que es imparable, la inteligencia artificial se desarrolle con criterios éticos, transparentes y libre de sesgos. De esta forma, las compañías ofrecen fórmulas para cumplir con la primera ley de inteligencia artificial, la europea AI act.

La consultora tecnológica Entelgy señala tres claves que las empresas deben tener en cuenta: aquellas que gestionen datos personales, médicos, de reclutamiento o para toma de decisiones, deberán revelar cómo funciona el algoritmo y el contenido que genera en un registro europeo; a pesar de no ser obligatorio, se recomienda establecer mecanismos de supervisión humana; y los modelos de lenguaje de gran tamaño (LLM) deberán introducir sistemas de seguridad y los desarrolladores tendrán la obligación de ser transparentes sobre el material protegido por derechos de autor que utilizan.

“Debemos asegurarnos de que la tecnología que desarrollamos se cree de manera responsable y ética desde el principio. Es una gran oportunidad, pero también plantea desafíos”, advierte Christina Montgomery, vicepresidenta y directora de Privacidad y Confianza de IBM. Al contrario que otras compañías partidarias del libre desarrollo (150 directivos de empresas europeas se han posicionado en contra de la norma), IBM apuesta “una regulación inteligente que proporcione barreras de protección para la sociedad, al tiempo que promueve la innovación”. Intel, otro gigante del sector, coincide, según Greg Lavender, jefe de Tecnología de esta empresa: “La inteligencia artificial puede y debe estar al alcance de todos para que se despliegue de forma responsable”.

Ambas compañías han desarrollado plataformas propias para asegurar este desarrollo de acuerdo con normas que, poco a poco, tanto gobiernos como compañías consideran necesarias.

La solución de IBM es Watsonx.governance una plataforma que incluye el manejo ético de datos, la gestión de riesgos y el cumplimiento de las normas. “Se ha desarrollado para ayudar a las organizaciones a aplicar la IA de manera responsable, adherirse a las políticas de hoy y estar listo para la regulación de mañana”, detalla Montgomery.

El 82% de los responsables de las compañías han adoptado o implementado IA o planean hacerlo en el próximo año

Encuesta a líderes empresariales europeos

Ana Paula Assis, presidenta y directora general de IBM para Europa, Oriente Medio y África defiende la necesidad de estas herramientas a partir de una encuesta a 1.600 líderes empresariales de Alemania, Francia, Italia, España, Suecia. Según los resultados, el 82% de los responsables de las compañías han adoptado o implementado IA o planean hacerlo en el próximo año y casi la totalidad (95%) lo hacen o lo van a hacer porque es eficaz en la toma de decisiones, en la gestión y en la estrategia comercial. Según Hazem Nabih, director de tecnología para Oriente Próximo en Microsoft, “la productividad de cualquier empresa aumenta entre un 30% y un 50%”.

Pero esta herramienta de enorme potencial afronta desafíos: un marco ético necesario, la necesidad de nuevas habilidades y el aumento de costes para que su desarrollo, además de ser eficaz, sea justo (sin sesgos) y transparente (explicable y medible), así como que garantice la seguridad y la privacidad.

La propuesta de IBM es que se pueda utilizar por cualquier compañía, sea cual sea el modelo informático implantado, tanto los de código abierto como los desarrollados particularmente o por otras compañías. “Nuestra estrategia y nuestra arquitectura es abierta, híbrida y multimodelo en el sentido de que, realmente, estamos dando a los clientes la flexibilidad de implementar nuestras soluciones en los entornos que mejor les funcionen”, explica Assis.

La solución que plantea el otro gigante es Intel Trust Authority y parte de una filosofía parecida: “Un ecosistema abierto y enfocado en el desarrollador para garantizar que las oportunidades de la inteligencia artificial sean accesibles para todos”. “Son herramientas que agilizan el desarrollo de aplicaciones de IA seguras y facilitan la inversión necesaria para mantener y escalar esas soluciones con el fin de llevar la IA a todas partes”, según el jefe de tecnología de la compañía.

“Si los desarrolladores están limitados en su elección de hardware [equipos] y software [programas], la gama de casos de uso para la adopción de IA a escala global se verá restringida y probablemente limitada en el valor social que son capaces de ofrecer”, explica Lavender.

La estrategia de Intel no solo va dirigida a grandes empresas. También ha lanzado, durante el Innovation 2023, AI PC Acceleration Program, una iniciativa diseñada para acelerar el ritmo de desarrollo de la inteligencia artificial en el ámbito de los computadores personales (PC).

El programa tiene como objetivo conectar a los proveedores independientes de hardware y de software con los recursos de Intel, que incluyen herramientas de IA, coingeniería, equipos, recursos de diseño, experiencia técnica y oportunidades de comercialización. “Estos recursos ayudarán a acelerar nuevos casos de uso y conectar a la industria en general con las soluciones de IA”, defiende la compañía. Entre los socios del programa se encuentran Adobe, Audacity, BlackMagic, BufferZone, CyberLink, DeepRender, MAGIX, Rewind AI, Skylum, Topaz, VideoCom, Webex, Wondershare Filmora, XSplit y Zoom.

Tenemos un conjunto completo de controles para garantizar que, para las empresas que utilizan Vertex, sus datos sean suyos y de nadie más. No se filtran, no se comparten con nadie, ni siquiera con Google

Thomas Kurian, director de Google Cloud

Google ha desarrollado para Gemini, su último modelo de inteligencia artificial, sistemas de protección específicos para aspectos como la protección de datos personales que exigirá la nueva norma. “Tenemos un conjunto completo de controles para garantizar que, para las empresas que utilizan Vertex AI, sus datos sean suyos y de nadie más. No se filtran, no se comparten con nadie, ni siquiera con Google. Hay un largo conjunto de controles y capacidad de cumplimiento y auditoría que Vertex proporciona”, explica Thomas Kurian, director de Google Cloud en la presentación de las herramientas para desarrolladores de Gemini.

Sesgos

Uno de los mayores desafíos son los sesgos, las deficiencias incluidas en los algoritmos que pueden extenderse por todo el sistema de inteligencia artificial menospreciando la complejidad de los seres humanos. En este sentido, dos artículos de investigadores de Sony y Meta presentados en la Conferencia Internacional sobre Visión por Computador (ICCV por sus siglas en inglés), proponen formas de medir los sesgos para verificar la diversidad de los datos que no solo sirven para tomar decisiones sino también para entrenar a las máquinas.

William Thong, investigador de ética de IA en Sony, explica en MIT Technology Review sobre su propuesta: “Se utiliza para medir el sesgo en los sistemas informáticos, por ejemplo, comparando la precisión de los modelos de IA para personas de piel clara y oscura”.

La herramienta de Sony ha ampliado la escala de tonos de piel reconocibles por la computadora para no fijarse solo en si es clara u oscura, sino también las tonalidades de los distintos colores.

Para agilizar las evaluaciones de sesgos, Meta también ha desarrollado la herramienta Fairness in Computer Vision Evaluation (FACET). Según Laura Gustafson, investigadora de IA en la compañía, el sistema se basa en 32.000 imágenes humanas etiquetadas por personas en función de 13 parámetros perceptibles, como edad (joven o mayor), tono de piel, sexo, color y textura del cabello, entre otros. Meta ha puesto sus datos disponibles de forma gratuita en línea para ayudar a los investigadores.

Uso generalizado sin control

La importancia de las cautelas la pone de manifiesto un reciente informe de la firma de seguridad Kaspersky realizado entre directivos españoles y que revela que el 96% de los encuestados en España admite un uso regular de la inteligencia artificial generativa entre sus empleados sin medidas que eviten sus riesgos en casi la mitad de las entidades (45%). Según otro estudio de la misma compañía, el 25% de quienes usan IA generativa desconocen que esta puede almacenar información como la dirección IP, el tipo de navegador y la configuración del usuario, así como datos sobre las funciones más utilizadas.

“Los sistemas de inteligencia artificial generativa se encuentran en claro crecimiento y, cuanto más tiempo funcionen sin control, más difícil será proteger áreas del negocio”, advierte David Emm, analista principal de seguridad de Kaspersky.

Puedes seguir a EL PAÍS Tecnología en Facebook y X o apuntarte aquí para recibir nuestra newsletter semanal.

Seguir leyendo

]]>
SIERAKOWSKI FREDERIC
<![CDATA[Juan Bernabé-Moreno, investigador de IBM: “Entender la naturaleza con un ordenador clásico es imposible”]]>https://elpais.com/tecnologia/2023-12-18/juan-bernabe-moreno-investigador-de-ibm-entender-la-naturaleza-con-un-ordenador-clasico-es-imposible.htmlhttps://elpais.com/tecnologia/2023-12-18/juan-bernabe-moreno-investigador-de-ibm-entender-la-naturaleza-con-un-ordenador-clasico-es-imposible.htmlMon, 18 Dec 2023 04:20:00 +0000Juan Bernabé-Moreno es director de la división de investigación de IBM para Irlanda y Reino Unido, donde lidera tres laboratorios. Este doctor en informática nacido en Antequera (Málaga) hace 44 años, pero de corazón granadino, es también responsable de la Estrategia de Descubrimiento Acelerado para el Clima y la Sostenibilidad, que desarrollan siete laboratorios globales para aplicar inteligencia artificial y computación cuántica al desarrollo de soluciones de sostenibilidad. Confía en el potencial español para las nuevas tecnologías y en que la computación cuántica nos permitirá entender la naturaleza, el comportamiento de la materia, la llave de un mundo esquivo para las teorías clásicas.

Pregunta. ¿La inteligencia artificial es una amenaza para la humanidad?

Respuesta. Puede que alguien use inteligencia artificial para causar algún tipo de daño, pero es importante diferenciar entre un uso premeditado y malévolo de la inteligencia artificial con un desarrollo que, sin estar mal intencionado, se comporte de una manera que es la esperada por no comprender o no tener el control de los datos o no haber aplicado la gobernanza con rigor.

P. IBM ha desarrollado herramientas de gobernanza, pero es presumible que no la use quien pretende causar un daño.

R. ¿Cómo se pueden prevenir los virus informáticos? Es muy difícil porque siempre hay la posibilidad de que alguien, con un determinado propósito, comprometa ciertos valores. Es muy difícil. Una cosa que ayuda es hacer las cosas de mantera abierta para educar a la comunidad. El beneficio que se puede obtener de la inteligencia artificial recae en las manos de la comunidad. Si todo el mundo entiende y toda la comunidad está detrás de un sistema abierto de inteligencia artificial, es más fácil que la comunidad misma ayude a prevenir el mal uso. Si lo dejas en manos de unos pocos, no escala. Nosotros lo hemos visto en tema de ciberseguridad. Nuestras herramientas son abiertas y la comunidad misma ayuda a desarrollarlo.

P. ¿Qué significa el comienzo de la era de utilidad cuántica que ha anunciado IBM?

R. Este año hemos entrado en un momento muy importante, en un hito. Lo que llamamos utilidad cuántica significa que, hasta ahora, la ventaja cuántica se podía demostrar en el terreno teórico, pero hacerlo con un ordenador cuántico no había pasado. Había errores y este año, por primera vez, hemos conseguido un sistema mejor que el clásico y ha podido resolver un problema de magnetización con nuestro ordenador cuántico y con rutinas de mitigación de errores. Pero pensar en que vamos a tener un ordenador cuántico perfecto en siete años… Yo no pongo fechas.

Si todo el mundo entiende y toda la comunidad está detrás de un sistema abierto de inteligencia artificial, es más fácil que la comunidad misma ayude a prevenir el mal uso

P. Entonces, ¿qué habrá en 2030?

R. Hablamos de quantum centric supercomputing, que es un supercomputador centrado en cuántica, pero también con una parte clásica, incluyendo todo el avance en hardware [equipos]. Es nuestra aspiración. No solo será cuántico. Por ejemplo, para el aprendizaje automático, necesitas datos y eso es [computación] clásica: están en bits. Después, haces tu procesamiento en cuántica, pero la salida, la interpretación de esos datos necesitan pasar a clásica otra vez. O sea, la computación cuántica nunca quita de la ecuación la clásica. Y en hardware, el procesador Eagle actual ha madurado, ha tenido muchas versiones. Pero la comunicación entre unidades es muy importante. Lo aprendimos en clásica: no puedes construir un monolito porque es muy difícil controlar. Lo que hacemos es apostar por unidades pequeñas que comunicamos con enlaces clásicos primero.

P. ¿Computación cuántica e inteligencia artificial juntas pueden suponer, esta vez sí, una amenaza para la humanidad?

R. Tomemos el ejemplo de factorización. La computación cuántica puede dejar obsoletos los sistemas de criptografía actuales. Eso lo sabemos. Pero como hemos visto un riesgo, hemos empezado a trabajar en algoritmos de seguridad cuántica [quantum save] que no se pueden desbancar. Ya tenemos tres en el NIST [National Institute of Standards and Technology] que ayudan ya a adoptar otro tipo de criptografía. La nueva tecnología crea muchas oportunidades.

P. Pero ¿y si la desarrollan comunidades que no comparten nuestros valores?

R. Para llegar a la utilidad cuántica llevamos trabajando 40 años para crear la ciencia de la información cuántica. Y, además, en nuestro ADN está construir chips. Toda esa tecnología no está al alcance de cualquiera.

P. ¿Qué permite la computación cuántica?

R. Uno de los ámbitos más prometedores y la razón por la que yo empecé con cuántica, que enseño en la universidad, es su capacidad de abordar temas a los que no llegamos de manera clásica. La cuántica permite descubrir en los datos relaciones que son muy difíciles de desvelar con los medios actuales clásicos. La inteligencia artificial es descubrir relaciones entre los datos y, con computación cuántica, vamos a tener una herramienta que nos va a ayudar muchísimo. Pero donde va a marcar más la diferencia es en la simulación. Si de verdad queremos entender la naturaleza, las partículas, con un ordenador clásico es imposible. Entender el comportamiento de la materia es cuántica.

P. ¿Y eso permite conocer el origen del universo y de una enfermedad?

R. Se puede aplicar, por ejemplo, para terapias dirigidas. Imagine ser muchísimo más preciso, entender a nivel molecular, a nivel celular, cómo actúa una terapia dirigida. Ya tenemos investigaciones de uso cuántico en este campo. Son pasos pequeños, pero ya apuntan el futuro. Creo que se podrá entender la naturaleza y la materia de una manera que no se podía antes y eso tiene muchas consecuencias, tanto para diseñar nuevos materiales como en el ámbito biológico.

En el ámbito cuántico, España puede sacar pecho

P. ¿Y supondrá mucho gasto energético? La inteligencia artificial sí lo exige-

R. La cuántica no necesita tantos datos ni energía para entender las nuevas relaciones ni para entrenarse. Es de bajo consumo. Puedes calcular más y mucho más rápido.

P. ¿España tiene talento para afrontar estas tecnologías?

R. En términos académicos, la calidad de nuestras universidades es buena. Es cierto que se tienen que adaptar y poner programas cuánticos y de inteligencia artificial generativa, pero la base es muy muy buena. He estado en muchos países y lo puedo confirmar. Donde hay que avanzar es en la transferencia del mundo académico al mundo empresarial. La gente buena intenta buscar experiencia internacional y, a veces, se queda. Pero hay programas para atraer talento. En el ámbito cuántico, por ejemplo, España puede sacar pecho no solo por la gente que tenemos a nivel mundial, sino también por ecosistemas como el vasco, donde la calidad investigadora es reconocida a nivel mundial.

Puedes seguir a EL PAÍS Tecnología en Facebook y X o apuntarte aquí para recibir nuestra newsletter semanal.

Seguir leyendo

]]>
IBM
<![CDATA[Lecciones de la naturaleza para domar el hielo y recolectar energía]]>https://elpais.com/ciencia/2023-12-04/lecciones-de-la-naturaleza-para-domar-el-hielo-y-recolectar-energia.htmlhttps://elpais.com/ciencia/2023-12-04/lecciones-de-la-naturaleza-para-domar-el-hielo-y-recolectar-energia.htmlMon, 04 Dec 2023 04:20:00 +0000La naturaleza y algunos comportamientos sociales aportan soluciones que la ciencia tarda en interpretar e imitar. La flor de loto es una obra de ingeniería natural que ha creado una superficie única que repele el agua donde vive y los animales carroñeros son los grandes recicladores del entorno, como lo son también los rebuscadores, las personas que recogen lo que ha sido desechado o abandonado. Ambos ejemplos han inspirado dos proyectos europeos, liderados por el Consejo Superior de Investigaciones Científicas (CSIC) y la Universidad de Sevilla, que han desarrollado materiales hidrófóbicos (que repelen el agua) para prevenir el engelamiento (formación de hielo sobre una superficie al entrar en contacto con gotas de agua atmosférica), un sistema para eliminar el que se forme y dispositivos capaces de aprovechar la energía residual generada en la vida cotidiana por los cambios de temperatura, el movimiento o una luz encendida.

La primera de las investigaciones, Sound of Ice o Sonido del Hielo, es un proyecto científico que ha desarrollado un sistema de descongelamiento inteligente, energéticamente eficiente, seguro para el medio ambiente y operado de forma autónoma a partir de transductores acústicos, dispositivos que transforman el efecto de una causa física en otro tipo de señal.

El primer paso para crear este sistema fue crear una superficie que redujera el engelamiento, un proceso natural que puede arruinar la eficacia de los drones, de las palas de los aerogeneradores y, a mayor escala, afectar al comportamiento aerodinámico de los aviones. “Una de las de las estrategias que se utilizan para generar superficies pasivas ante el hielo, hidrofóbicas, es copiar lo que la naturaleza ha optimizado durante tantos años”, explica Ana Borrás, científica del CSIC que forma parte de ambos proyectos. “La superficie de la flor de loto”, añade, “es una de las referencias. Tiene una rugosidad en varias escalas, protuberancias visibles al microscopio que generan espacios donde queda aire. Las superficies que nosotros hemos desarrollado no son solo muy difíciles de mojar, sino que también permiten que las gotas de agua se muevan libremente”.

A partir de esa “superficie pasiva” que reduce y retrasa la formación de hielo, el segundo paso ha sido, según explica Borrás, “integrar un dispositivo que permite detectar el que se genere y aplicar energía mediante ondas acústicas”.

Ángel Barranco, investigador del CSIC y líder del grupo de nanotecnología en el que participa la Universidad de Sevilla, destaca la importancia de la inspiración en la flor de loto: “La estructura de varios niveles se puede fabricar en laboratorio, pero a esa idea no se hubiera llegado tan directamente si no se hubiera visto previamente que en la naturaleza funciona así”.

Para Borrás, la reproducción a gran escala de las características de la superficie desarrollada en laboratorio es ya posible. El dispositivo inteligente asociado se ha probado ya en pequeñas dimensiones (en formatos de 15 por 15 centímetros), pero creen que será posible escalarlo. Ya es aplicable para evitar que el hielo afecte a lentes de drones de vigilancia, pero el objetivo es evitar este proceso natural en antenas, palas de aerogeneradores y alas de avión, por ejemplo.

Rebuscadores de energía

El segundo de los proyectos, 3Dscavengers, toma su nombre de un término en inglés que se refiere a la labor de los animales carroñeros y a la actividad de los recolectores o, en leguaje agrario, de los rebuscadores: la recogida del fruto que queda en los campos después de alzada la cosecha. En este sentido, la investigación desarrolla dispositivos capaces de captar la energía que se disipa en acciones cotidianas, como encender una luz o el movimiento aleatorio de las personas. “La idea”, explica Borrás, “es aprovechar la microenergía ambiental, la que tienes a tu alrededor en forma de calor o de vibraciones o incluso la procedente de la iluminación que tienes en una habitación”.

De esa idea surge el desarrollo de dispositivos fundamentados en la nanotecnología que permitan convertir la luz, los cambios de temperatura y las vibraciones o deformaciones mecánicas, que no son continuas, constantes y homogéneas, en una fuente de energía aprovechable y acumulable.

Ángel Barranco explica que podrían ser la fuente de alimentación de sensores en edificios o explotaciones agrícolas que capten la energía disponible en el entorno. “Hay muchas iniciativas de este tipo y se pueden combinar fuentes como la térmica, muy común en un proceso de rozamiento, e incluso la procedente de la radiación electromagnética. Si se mide el campo eléctrico que hay en una calle con las señales de wifi es una fuente de energía que aprovecha el móvil para mandar señales, pero la mayor parte de ella se están proyectando en áreas grandes y acaba disipándose”, comenta.

Y añade: “Del cuerpo humano, de la temperatura, de los movimientos y las vibraciones se puede extraer energía. El ultrasonido que se usa para diagnosis médica puede servir también para introducir energía dentro de un dispositivo que esté dentro del cuerpo. Los más conocidos son para regular el corazón, pero pueden activar nervios y hacer muchas funciones”. También se ha probado con las corrientes de aire de ventiladores.

La idea, según explica Barroso, es que se pueda utilizar toda la energía generada o que puedan alimentar dispositivos. “Una pequeña celda solar en tu hombro”, añade Borrás, “a lo largo del día, puede acumular energía suficiente como para recargar el móvil. En una línea de fabricación, el 30% de la energía que se inyecta se consume en vibraciones”.

Además, según precisa Barroso, “no hay ninguna limitación a la mejora en el consumo de energía de dispositivos. En el futuro van a precisar mucha menos y es posible que esa energía ambiental sea suficiente para servir de fuente de alimentación”.

Y aporta un ejemplo: “Miles de sensores en un puente aportan información local de cada punto y detectan con precisión dónde surge un problema sin depender de un único sensor cableado y conectado a internet”

El proyecto pretende incluso aprovechar el movimiento del agua al caer por los desagües pluviales o convertir el impacto de gotas de lluvia en corriente eléctrica, que tendría aplicaciones en superficies como las ventanas o las placas solares.

Puedes seguir a MATERIA en Facebook, X e Instagram, o apuntarte aquí para recibir nuestra newsletter semanal.

Seguir leyendo

]]>
<![CDATA[Las principales empresas de inteligencia artificial aceptan la ley europea, pero reclaman que su aplicación no suponga un freno]]>https://elpais.com/tecnologia/2023-12-09/las-principales-empresas-de-inteligencia-artificial-aceptan-la-ley-europea-pero-reclaman-que-su-aplicacion-no-suponga-un-freno.htmlhttps://elpais.com/tecnologia/2023-12-09/las-principales-empresas-de-inteligencia-artificial-aceptan-la-ley-europea-pero-reclaman-que-su-aplicacion-no-suponga-un-freno.htmlSat, 09 Dec 2023 11:33:03 +0000Las grandes empresas de inteligencia artificial aceptan la regulación europea aprobada al filo de la medianoche de este pasado viernes, pero reclaman que no suponga un freno a su desarrollo. Como afirma Pilar Manchón, consejera del comité de asesoramiento del Gobierno español y responsable de estrategia de investigación con inteligencia artificial en Google, “la IA es demasiado importante para no regularla”. Las principales compañías responsables de estos desarrollos han venido trabajando en paralelo a la negociación de la norma para asegurarse una evolución ética de estas herramientas, por lo que la norma coincide con sus expectativas generales siempre que, según advierte Christina Montgomery, vicepresidenta y directora de Privacidad y Confianza de IBM, “proporcione barreras de protección para la sociedad al tiempo que promueve la innovación”.

Hasta ahora, la tendencia de las tecnológicas era dejar en manos de la autorregulación los límites de sus desarrollos. Todas tienen unos principios éticos, que Manchón resume así: “Haz cosas buenas y asegúrate de que va a tener un impacto positivo en la comunidad, en la sociedad, en la comunidad científica. Y, si potencialmente pudiera hacer algo que no es para lo que lo usaste o para lo que lo diseñas, asegurémonos de tomar todas las precauciones necesarias y mitigar los riesgos. Así que: haz solo el bien, innova, sé audaz, pero sé responsable”.

Sin embargo, esta fórmula se ha mostrado absolutamente insuficiente en aspectos como las redes sociales. Según Global Witness, una ONG de investigación y vigilancia del respeto a los derechos humanos con 30 años de trayectoria, “estas empresas prefieren proteger su modelo de negocio lucrativo a la moderación adecuada del contenido y a proteger a los usuarios”.

Para prevenir estas disfunciones con la inteligencia artificial, algunas de las principales empresas e instituciones dan la bienvenida a las normas y proponen fórmulas propias que garanticen el seguimiento de los principios que incluye.

En este sentido, medio centenar de empresas, entre las que se encuentran IBM, Meta, AMD, Intel o Dell; universidades, como Imperial College de Londres, Cornelll, Boston, Yale y Harvard; y entidades como la NASA o la NSF, han formado la Alianza para la Inteligencia Artificial (AI Alliance) para el desarrollo de una IA conforme a las normas: abierta, segura y responsable.

“Una mayor colaboración e intercambio de información ayudará a la comunidad a innovar de manera más rápida e inclusiva, identificando riesgos específicos y mitigándolos antes de lanzar un producto al mundo”, afirman los firmantes. Para ello, sus grupos de trabajo establecerán sus propias normas y se “asociarán” con las iniciativas de los gobiernos y de otras organizaciones. “Este es un momento crucial para definir el futuro de la IA”, advierte Arvind Krishna, presidente de IBM. “Podemos ayudar a garantizar que los beneficios transformadores de la IA responsable estén ampliamente disponibles”, añade Lisa Su, directora general y presidenta de AMD.

Podemos ayudar a garantizar que los beneficios transformadores de la IA responsable estén ampliamente disponibles

Lisa Su, directora general y presidenta de AMD

De esta forma, los integrantes de la alianza, en la que no figuran por ahora OpenAI, la desarrolladora de ChapGPT, ni Google, que acaba de presentar Gemini (un modelo con capacidades que superan a las de las personas), abogan por la colaboración, entre empresas y con los gobiernos, para seguir una senda común. Como explica Tom Mihaljevic, presidente de Cleveland Clinic, una de las instituciones médicas más avanzadas en el uso de nuevas tecnologías, “las capacidades de IA ahora están en constante crecimiento y mejora y es fundamental que las organizaciones de diversos campos se unan para ayudar a avanzar y, al mismo tiempo, abordar las preocupaciones en torno a la seguridad y la protección”.

También lo defiende Bob Shorten, director de la Escuela de Ingeniería Dyson del Imperial College de Londres: “Creemos que la participación de la comunidad es esencial para que la IA sea confiable, responsable, transparente y auditable”, los principios que defiende la norma europea.

Esta comunidad incluye a los gobiernos, industrias, instituciones académicas e investigadores alineados en un desarrollo ético. Pero, como explica, Manuel R. Torres, catedrático de Ciencia Política de la Universidad Pablo de Olavide y miembro del consejo asesor del Real Instituto Elcano. “El problema es la proliferación de una tecnología que hay que evitar que llegue a la mano incorrecta”.

Torres alaba el papel europeo como “potencia reguladora”, pero advierte: “El conflicto está en cómo se desarrolla esa tecnología en otros ámbitos que no tienen ningún tipo de escrúpulo ni limitación en cuanto al respeto de la privacidad de los ciudadanos cuyos datos alimentan todo eso”.

Pone como ejemplo el caso de China: “No solo está dentro de esa carrera de tecnológica, sino que no tiene ningún tipo de problema en utilizar de manera masiva los datos que dejen sus propios ciudadanos para alimentar y perfeccionar esos sistemas. Por muy escrupulosos que queramos ser con los límites que ponemos a nuestros desarrolladores locales, al final, si esto no se produce de manera global, también es peligroso”.

Wu Zhaohui, viceministro de Ciencia y Tecnología de China, dijo el pasado noviembre, sobre la cumbre de seguridad de inteligencia artificial celebrada en el Reino Unido, que su Gobierno está “dispuesto a aumentar la colaboración para ayudar a construir un marco de gobernanza internacional”.

Pero la legislación, por sí sola, es insuficiente. A partir de la aprobación de la norma europea, la clave será “la supervisión permanente”, añade Cecilia Danesi, abogada especializada en IA y derechos digitales, profesora la Universidad Pontificia de Salamanca y otras universidades internacionales, divulgadora y autora de El imperio de los algoritmos (Galerna, 2023).

Para Danesi, integrante también del grupo Mujeres por la Ética de la Inteligencia Artificial (Women4Ethical AI) de la Unesco, es necesario el seguimiento: “Estos sistemas que son de alto riesgo, que pueden afectar de manera considerable derechos humanos o cuestiones de seguridad. Tienen que ser evaluados y revisados para comprobar que no violan derechos, que no tienen sesgos. Y debe hacerse de forma continuada porque los sistemas, como siguen aprendiendo, pueden adquirir un sesgo. Y actuar de forma preventiva para evitar daños y generar sistemas que sean éticos y respetuosos con los derechos humanos”.

En contra de la regulación del sector en Europa se mostraron 150 directivos de empresas continentales, como Airbus, Ubisoft, Renault, Heineken, Dassault, TomTom, Peugeot y Carrefour. Sus responsables firmaron en junio una carta abierta contra la regulación en la UE al considerar que la norma afectará a “la competitividad y la soberanía tecnológica de Europa sin abordar de manera efectiva los desafíos que enfrentamos y enfrentaremos”.

Ciberativismo

Las ONG y expertos dedicados al ciberactivismo se han mostrado sorprendidos y defraudados con la ley aprobada ayer. Ella Jakubowska, analista especializada en tecnologías de identificación biométricas de la ONG europea en defensa de los derechos digitales EDRi, asegura: “A pesar de muchas promesas, la ley parece destinada a hacer exactamente lo contrario de lo que queríamos. Allanará el camino para que los 27 Estados miembros de la UE legalicen el reconocimiento facial público en vivo. Esto sentará un precedente peligroso en todo el mundo, legitimará estas tecnologías de vigilancia masiva profundamente intrusivas e implicará que se pueden hacer excepciones a nuestros derechos humanos”.

Carmela Troncoso, ingeniera de telecomunicaciones especialista en privacidad en la Escuela Politécnica Federal de Lausana (Suiza), asegura: “Hay muchas prohibiciones muy prometedoras, pero también muchos agujeros y excepciones que no dejan claro que las prohibiciones de verdad vayan a proteger los derechos humanos como esperamos, por ejemplo, que las fuerzas del orden vayan a usar reconocimiento facial en tiempo real para buscar sospechosos. También es triste que España haya estado detrás de algunas de las propuestas más preocupantes de esta ley”, añade Troncoso, creadora de la tecnología que hizo posible las apps de rastreamiento de la covid, informa Manuel González Pascual.

Puedes seguir a EL PAÍS Tecnología en Facebook y X o apuntarte aquí para recibir nuestra newsletter semanal.

Seguir leyendo

]]>
STEPHEN NELLIS
<![CDATA[Google lanza Gemini, un modelo de inteligencia artificial capaz de superar a los humanos en comprensión del lenguaje multitarea]]>https://elpais.com/tecnologia/2023-12-06/google-lanza-gemini-un-modelo-de-inteligencia-artificial-capaz-de-superar-a-los-humanos-en-comprension-del-lenguaje-multitarea.htmlhttps://elpais.com/tecnologia/2023-12-06/google-lanza-gemini-un-modelo-de-inteligencia-artificial-capaz-de-superar-a-los-humanos-en-comprension-del-lenguaje-multitarea.htmlWed, 06 Dec 2023 15:00:00 +0000La carrera por la inteligencia artificial (IA) se ha convertido en una prueba de velocidad. A los avances en ChatGPT, que ya va por su cuarta versión, y los consecutivos anuncios de las grandes multinacionales de sus propios sistemas, Google ha respondido este miércoles con el lanzamiento de Gemini, una plataforma de inteligencia artificial multimodal que puede procesar y generar texto, código, imágenes, audio y vídeo desde distintas fuentes de datos. La versión Ultra, “disponible a comienzos del próximo año”, según ha anunciado Eli Collins, vicepresidente de productos en Google DeepMind, supera a los humanos en comprensión masiva del lenguaje multitarea (MMLU, por sus siglas en inglés), una referencia de evaluación creada a partir de 57 materias de ciencias, tecnología, ingeniería, matemáticas (STEM), humanidades y ciencias sociales.

“Gemini es nuestro mayor y más capaz modelo de IA”, asegura Collins, quien explica que está “inspirado en la forma en que las personas entienden el mundo e interactúan con él”. “Se percibe más como un colaborador útil y menos como una pieza inteligente de programación”, afirma.

Durante la presentación, Gemini ha sido capaz de identificar una forma geométrica, analizar la formulación para hallar su área y descubrir un error en la misma para proponer y explicar un resultado acertado al problema. De esta forma, es capaz de arrojar resultados a partir de datos de imagen, texto alfanumérico y voz. También ha identificado diferentes formas y dibujos, algunos a partir solo de puntos dispersos, y proponer usos de las figuras o de los objetos presentados o elaborar un relato a partir de propuestas alternativas o desarrollar gráficos actualizados con la información buscada por la propia plataforma.

Según el vicepresidente de DeepMind, ha obtenido más de un 90% de puntuación en MMLU, el sistema de evaluación para comprensión del lenguaje multitarea. “Es el primer modelo de IA que supera a los expertos humanos en este punto de referencia estándar de la industria”, afirma. Gemini también ha aprobado (59,4%) el examen de “comprensión de tareas multimodales que incluyen demandas que requieren un razonamiento deliberado”.

Gemini no es una aplicación sino la plataforma para llevar este último modelo de inteligencia artificial a los servicios existentes, desde Bard, el chat de Google competidor de ChatGPT, hasta el buscador o los gestores de servicios o los móviles con Android o los centros de datos a gran escala.

Para esto, estarán disponibles tres “tamaños” de Gemini: el Nano, que ya se puede usar por parte de los desarrolladores de Android; el Pro, que estará disponible a partir del 13 de diciembre y el Ultra, que se podrá implementar a partir de principios de año en una fecha aún por determinar. Los desarrolladores y clientes empresariales podrán acceder a Pro a través de la API Gemini en Google AI Studio o Vertex AI. A través de AICore, los desarrolladores de Android también podrán crear aplicaciones con Nano.

Bard

Sissie Hsiao, responsable de asistentes y Bard ha anunciado que Gemini se incorpora ya a este último chat en inglés para 180 países y se extenderá al resto de idiomas progresivamente, aunque ha admitido que tendrán que confirmar que su desarrollo es compatible con la inminente normativa europea sobre inteligencia artificial, que incluye estas plataformas de diálogo entre sus desarrollos regulables. Y con su inclusión en Bard, se extenderá a todas las aplicaciones compatibles.

El proceso será en dos fases: la primera utilizará una versión de Pro, que dotará al chat de “razonamiento más avanzado, planificación, comprensión y otras capacidades”, según Hsiao; y la segunda, a principios del próximo año, con mejoras que culminarán con la adopción de la versión Ultra.

Gemini ha nacido como multimodal, es decir, no se ha entrenado con diferentes modalidades de datos y se han unificado luego las capacidades diferenciadas, sino que su programación ya parte de la diversidad de fuentes. Según explica Collins, “esto ayuda a Gemini a comprender sin problemas todo tipo de entradas mucho mejor que los modelos existentes y sus capacidades son de última generación”.

También es capaz de programar incluyendo desarrollos complejos. En este sentido, Amin Vahdat, vicepresidente en Google Cloud, asegura: “En el futuro, veremos a los programadores haciendo uso de modelos de IA de alta capacidad como herramientas colaborativas que ayudan con todo el proceso de desarrollo de software, desde el razonamiento sobre los problemas hasta la asistencia con la implementación, el rendimiento y las capacidades”.

Sobre la seguridad, Google afirma que Gemini supera “las evaluaciones más completas de todos los modelos hasta la fecha”. La compañía asegura que ha sometido a la plataforma a todos los riesgos existentes y potenciales y que mantiene un examen continuo que incluye “pruebas de estrés”. También se han aplicado los principios de IA de la propia compañía, que establecen las normas éticas de sus desarrollos.

Pese a los avances, Gemini no es infalible, según reconocen sus responsables. Admiten que arrojará errores y alucinaciones (respuestas de apariencia segura no justificada por datos). “Hemos progresado mucho y Gemini es nuestro mejor modelo en ese sentido, pero todavía es, diría yo, un problema de investigación sin resolver”, admite Collins.

Puedes seguir a EL PAÍS Tecnología en Facebook y X o apuntarte aquí para recibir nuestra newsletter semanal.

Seguir leyendo

]]>
Gianluca Battista
<![CDATA[IBM anuncia el comienzo de la “era de la utilidad cuántica” y anticipa un superordenador en 2033 ]]>https://elpais.com/tecnologia/2023-12-04/ibm-anuncia-el-comienzo-de-la-era-de-la-utilidad-cuantica-y-anticipa-un-superordenador-en-2033.htmlhttps://elpais.com/tecnologia/2023-12-04/ibm-anuncia-el-comienzo-de-la-era-de-la-utilidad-cuantica-y-anticipa-un-superordenador-en-2033.htmlMon, 04 Dec 2023 12:00:23 +0000La computación cuántica no es solo cuestión de cúbits, la unidad básica de información. La clave para esta tecnología es la conjunción de sistemas que permitan construir un ordenador útil y tolerante a los fallos. La multinacional IBM ha anunciado este lunes un paso fundamental en este sentido al presentar tres avances: un procesador de 1.121 cúbits denominado Cóndor (el mayor conocido); Heron, un chip de 133 cúbits desarrollado para su interconexión y basado en una arquitectura conocida como “tunable coupler”; y un nuevo System Two, un sistema modular y flexible para combinaciones múltiples de estos procesadores con enlaces de comunicación cuántica y clásica. Estos avances, unidos a las nuevas fórmulas de mitigación y corrección de errores, anticipan lo que Darío Gil, vicepresidente de IBM y director de la división de investigación (IBM Research), califica como “la nueva era de utilidad cuántica”, que podría desembocar, según sus previsiones, en un superordenador básicamente cuántico, pero con sistemas clásicos y con corrección modular de errores en 2033.

Los últimos desarrollos de IBM han hecho saltar por los aires la propia hoja de ruta de la multinacional, que ha cumplido hasta ahora con precisión matemática, para llegar más lejos y antes de lo previsto al “desbloqueo de todo el poder de la computación cuántica”, según la nueva senda tecnológica presentada este lunes.

Nueva hoja de ruta de IBM hacia la computación cuántica.

Superar los errores, en palabras de Jian-Wei Pan, físico de la Universidad de Ciencia y Tecnología de China, “es uno de los grandes desafíos para el ser humano”. Los fallos se generan por cualquier interacción con el medio ambiente (ruido, ondas o temperatura, por ejemplo) y provocan que la superposición de estados (la propiedad física que permite a una partícula estar en una posición A y B al mismo tiempo) se degrade hasta hacerla inútil. Esa superposición es lo que permite una capacidad exponencial de la computación cuántica frente a la binaria clásica, que se limita al 0 o 1 del bit. De esta forma, si dos bits pueden almacenar un número, dos cúbits almacenan cuatro y diez cúbits pueden tener 1.024 estados simultáneos.

Para llegar a esa meta de sistemas útiles y tolerantes, IBM cree haber dado con las puertas que lo pueden permitir y que se fundamentan en avances de los procesadores, en los sistemas de interconexión de estos para permitir una computación robusta y en la mitigación y corrección de errores.

Cóndor de IBM, de 1.121 cúbits.

El aumento de capacidad singular lo ha conseguido IBM otra vez. “El Cóndor vuela”, bromea Gil ante el hito del nuevo procesador cuántico que sucede al Osprey, presentado el pasado año con 433 cúbits, capaz de representar un número de estados superior a la cantidad de átomos en el universo observable. Pero casi triplicar la capacidad del procesador no es lo único alcanzado. “Muchas cosas han pasado este año simultáneamente”, explica Gil.

El principal logro es que IBM considera que ya no es imprescindible continuar aumentado la capacidad de un procesador único, sino que se puede alcanzar la computación cuántica práctica con otro método. “Vamos a hacerlo a través de modularidad, con muchos chips conectados unos con otros de tal manera que podamos crear el superordenador”, asegura Gil.

Chip Heron con arquitectura 'Tunable coupler'.

Estos chips, que serían como las piezas de un juego de construcción, son ahora los IBM Quantum Heron de 133 cúbits, creados a partir de una nueva arquitectura denominada tunable coupler. Esta ingeniería permite plataformas de información cuántica de mayor tamaño y funcionalidad. “Heron puede combinarse modularmente e incorporar la comunicación clásica para acelerar los flujos de trabajo. Con el tunable coupler podemos ajustar la frecuencia de los cúbits y conseguir un procesador mucho mejor que el anterior”, explica Gil. Esta arquitectura se complementa con los 4K cryo-CMOS, controladores de estado de cúbits semiautónomos, de baja potencia y “del tamaño de una uña”.

“Heron es nuestro mejor procesador cuántico en cuanto a rendimiento hasta la fecha. Supone una mejora de hasta cinco veces con respecto al dispositivo insignia: el Eagle”, añade Matthias Steffen, jefe de arquitectura cuántica de la compañía y de tecnologías de procesadores.

La base de la interconexión de los chips Heron es la nueva generación del System Two, el sistema diseñado para combinar de forma modular y flexible múltiples procesadores en un solo sistema con enlaces de comunicación. Esta red es el componente básico de la supercomputación cuántica, ya que permite escalar el potencial computacional sin tener que progresar indefinidamente en la capacidad singular de un solo procesador.

“El System Two permitirá nuevas generaciones de procesadores centrados en tecnología cuántica, con una infraestructura central totalmente escalable y modular que permitirá ejecutar circuitos como nunca”, asegura Steffen.

Interior del IBM Quantum System Two.

El nuevo modelo ha llevado a repensar los próximos desarrollos. Gil afirma que “todas las generaciones siguientes van a estar basados en él”. “Estamos convencidos de que no necesitamos aumentar más el número de cúbits por unidad de procesador. El futuro va a ser cientos y miles de procesadores, cada uno más pequeño de 1.000 cúbits, conectados entre sí”, asegura.

El elemento clave que abrió las puertas de esta nueva senda fue la investigación publicada en Nature y que demostró que un procesador de IBM de solo 127 cúbits es capaz de medir valores esperados en operaciones de física más allá de las capacidades de los mejores métodos computacionales clásicos actuales. “Nos permite entrar en la era que hemos denominado de la utilidad cuántica, en la que ya se pueden hacer cálculos de una manera mucho más eficiente y robusta de lo que se puede hacer con cualquier tipo de simulador o con cualquier tipo de computación clásica”, asegura Gil.

Katie Pizzolato, responsable de algoritmos cuánticos y socios científicos de la compañía, cree que se trata de un momento disruptivo: “Fue la primera vez que una computadora cuántica produjo valores precisos a una escala que estaba fuera del alcance de la computación clásica de fuerza bruta y la respuesta desde entonces ha sido exactamente lo que esperábamos; desde este artículo hemos visto a muchas personas publicando investigaciones que usan la cuántica como una herramienta”.

Ya no se trata solo del Qiskit, un entorno de sistemas clásicos y cuánticos que permite llevar a la programación las soluciones frente al ruido y facilitar a los usuarios que incorporen la computación más avanzada. “Ahora hemos roto la barrera de los más de 100 cúbits con suficiente calidad”, resalta el directivo español en referencia a la investigación de Nature. Y anuncia: “Combinados con la mitigación de errores, van a permitir una explosión científica”.

Jay Gambetta, vicepresidente de IBM Quantum, destaca que ese desarrollo de programas se verá favorecido por la inteligencia artificial: “Todo el poder de la computación cuántica será impulsado por la IA generativa, que simplificará la experiencia del desarrollador”.

“Hay muchos problemas que afrontar y la naturaleza sabe cómo, pero no nos lo dice”, resume Stefan Woerner, director de Ciencia Computacional Cuántica en la sede de IBM en Zúrich (Suiza). El científico afirma que el objetivo final es llegar a una computación cuántica fundamentada en tres criterios: que sea más eficiente, barata y precisa. El modelo demostrado en Nature, según afirma, ha sido “crucial” para avanzar en esta senda.

“Será muy extraño que cualquier plataforma importante en la nube no tenga computación cuántica en 2030. Esta va a ser más impactante que la inteligencia artificial y los actuales supercomputadores”, cree Christian Weedbrook, director de Xanadu Quantum Technologies. “La computación cuántica cambiará las relaciones entre la gente, la tecnología y el trabajo”, añade Soney Trent, fundador y presidente de la también empresa tecnológica Bulls Run Group.

Las investigaciones cuánticas continúan y todas contribuyen al desarrollo de esta tecnología. Investigadores del Laboratorio Nacional Argonne del Departamento de Energía de los Estados Unidos (DOE), la Universidad de Chicago y la Universidad de Cambridge ha creado a partir del diamante cúbits más controlables y que pueden operar con equipos y gastos significativamente reducidos, según han publicado en Physical Review X. “Nuestra técnica permite elevar drásticamente la temperatura de funcionamiento de estos sistemas y reduce mucho los recursos para operarlos”, afirma Alex High, profesor asistente de la Escuela de Ingeniería Molecular Pritzker de la Universidad de California, cuyo laboratorio dirigió el estudio.

Puedes seguir a EL PAÍS Tecnología en Facebook y X o apuntarte aquí para recibir nuestra newsletter semanal.

Seguir leyendo

]]>
CONNIE ZHOU
<![CDATA[Así es el tiempo en Marte: tormentas globales, fuertes vientos que parecen brisas, remolinos gigantes y temperaturas gélidas]]>https://elpais.com/ciencia/2023-11-25/asi-es-el-tiempo-en-marte-tormentas-globales-fuertes-vientos-que-parecen-brisas-remolinos-gigantes-y-temperaturas-gelidas.htmlhttps://elpais.com/ciencia/2023-11-25/asi-es-el-tiempo-en-marte-tormentas-globales-fuertes-vientos-que-parecen-brisas-remolinos-gigantes-y-temperaturas-gelidas.htmlSat, 25 Nov 2023 04:19:00 +0000La información del tiempo es fundamental en cualquier planificación cotidiana, desde en el día a día hasta en cualquier viaje. Si este último es a Marte y con una expectativa de años de investigación, los datos del comportamiento de la tenue atmósfera marciana son críticos. El Perseverance, el vehículo autónomo de la NASA que deambula por el planeta rojo desde el 18 de febrero de 2021, incluye el MEDA (Mars Environmental Dynamics Analyzer o Analizador de Dinámicas Ambientales de Marte), un programa con un complejo sistema de instrumentos diseñado por un equipo internacional de siete países y liderado por el Centro de Astrobiología español (CAB-CSIC-INTA), que ha recopilado ya 2.500 imágenes y más de 10.000 horas de datos de presiones, temperaturas, vientos, humedad y composición y comportamiento de la atmósfera. El equipo ha analizado en Sevilla, sede la Agencia Espacial Española, los desafíos y amenazas de una misión fundamental para explorar el planeta, así como la información que muestra cómo es el tiempo en Marte.

Desde su aterrizaje hace un año marciano (equivalente a dos terrestres), MEDA no ha dejado de trabajar, a pesar de los vientos de más de 100 kilómetros por hora y tormentas capaces de cubrir toda la superficie del planeta. “Medimos sistemáticamente. Hacemos una monitorización permanente de todos los parámetros ambientales”, explica José Antonio Rodríguez Manfredi, investigador principal del MEDA y director del Grupo de Instrumentación Espacial en el Centro de Astrobiología.

Los resultados iniciales fueron recogidos por Nature Geoscience el pasado enero. Este mes, los investigadores han actualizado los datos obtenidos después de centenares de soles marcianos (días) a iniciativa de la Agencia Espacial Española, el Instituto de Microelectrónica de Sevilla (centro mixto US-CSIC) y el Instituto Nacional de Técnica Aeroespacial.

Polvo. Rodríguez Manfredi explica que es “el elemento principal en la dinámica atmosférica” de Marte, donde se registra un ciclo global y permanente de partículas en suspensión. Y también es uno de los desafíos del MEDA. “Nos termina afectando a los equipos, pero teníamos previstos mecanismos para mitigar el impacto”, aclara. Protectores especiales y mecanismos de barrido magnéticos son algunos de ellos, así como la redundancia de equipos para completar y corregir los datos defectuosos que pueda arrojar un sensor específico.

Celdas. La investigación española ha permitido observar patrones globales de circulación atmosférica (celdas) que determinan el tiempo marciano, como en la Tierra los sistemas convectivos que hacen circular el calor. Y también los comportamientos locales en el cráter Jezero, la gran cuenca que explora el Perseverance y que fue formada por el impacto de un meteorito hace unos 3.500 millones de años y albergó un enorme lago del que fluía un río. “Esos afectan a los parámetros ambientales, en algunos aspectos, más que la circulación global”, precisa el investigador.

El estudio de esa relación entre esa micrometeorología local y la global es uno de los grandes logros de MEDA. “Proporciona mediciones meteorológicas de alta precisión que permiten caracterizar, por primera vez, la atmósfera marciana a partir de escalas locales a distancias de unos pocos metros, así como a escala global del planeta mediante la recopilación de información sobre lo que está sucediendo a miles de kilómetros de distancia. Todo ello permitirá comprender mejor el clima marciano y mejorar los modelos predictivos que utilizamos”, afirma Agustín Sánchez-Lavega, profesor de la Facultad de Ingeniería - Bilbao (EIB) y coinvestigador de la misión Mars 2020.

Halos extraterrestres. El equipo liderado por España ha percibido también, por primera vez, un halo extraterrestre. El halo que se percibe en la Tierra lo causan las partículas de hielo en suspensión en la troposfera al refractar la luz y generar un espectro de colores alrededor del Sol o la Luna. “Nunca se había visto en otro planeta y ha sido tremendamente interesante”, resalta Rodríguez Manfredi.

Nubes vistas en el amanecer marciano el pasado 18 de marzo.

Nubes. Daniel Toledo, investigador del equipo del instrumento MEDA en el Departamento de Cargas Útiles de INTA, resalta en una nota del CSIC que el “descubrimiento del halo proporciona información clave acerca de las propiedades de las nubes en Marte”. A pesar de la presencia de hielo y de movimientos de nubes, no se han detectado precipitaciones como las entendemos en la Tierra. “Aunque hay agua, vapor y nubes, las condiciones de bajas temperaturas (unos 50 grados bajo cero en la zona de Jezero) y presiones (6,1 milibares de media frente a los 1.013 de la Tierra) hacen que no pueda precipitar en forma de agua. Siendo un poquito generoso, con condiciones muy concretas, esas nubes pueden precipitar en forma de hielo”.

Hielo. Esa agua no es aprovechable por futuros asentamientos humanos. Es más fácil recurrir al hielo del subsuelo. Pero no el de los polos, donde, según explica el investigador principal del equipo, las condiciones de temperatura (hasta -140 grados) y radiación son tan extremas que hacen esas zonas inhabitables. El refugio para humanos en el futuro se encuentra en el ecuador del planeta, donde en verano se puede llegar a una máxima de entre dos y siete grados positivos. Pero cualquier salida al exterior está limitada, ya que la tenue atmósfera (un 1% de la terrestre) no protege de la radiación solar.

Estaciones. MEDA ha observado cuatro, similares a las terrestres, pero en condiciones marcianas. Y como en nuestro planeta, hay fenómenos que las marcan, como las tormentas. “Sería importante poder predecirlas ante futuras misiones tripuladas”, explica Rodríguez Manfredi. También será importante su predicción ante el futuro aterrizaje de la misión de rescate de las muestras recogidas por el Perseverance.

Tormentas. Son locales, que suelen durar hasta siete días y con fenómenos que denominan “diablos de polvo”, y globales, capaces de cubrir todo el planeta durante semanas: “Todo queda cubierto como si fuera por un velo de polvo que luego se asienta”. El efecto es parecido al ocasionado por la calima saharaui que ocasionalmente cubre gran parte de España.

Viento. Se han llegado a registrar ráfagas de 25 y 30 metros por segundo (unos 100 kilómetros por hora). Pero Marte aporta una sorpresa en cuanto a la percepción de las rachas. “Si estuvieras en Marte y te pudieras quitar el casco para sentir el viento en tu cara, esa ráfaga de kilómetros por hora, que aquí sería bastante fuerte, se percibiría como una pequeña brisa. La atmósfera es muy tenue y el aire es muy poco denso. Eso hace que, aunque el viento sea muy fuerte, la capacidad de arrastre es mucho menor”, explica Rodríguez Manfredi, quien recurre a un ejemplo terrestre para explicarlo: es como el movimiento rápido de un brazo en el aire terrestre y en una piscina. La resistencia es mayor en el agua.

Imagen del clima habitual marciano. Al fondo, la colina de Santa Cruz vista desde el cráter Jezero en una imagen de abril de 2021.

Presión. Ese polvo clave en la atmósfera marciana también determina la presión. Rodríguez Manfredi explica: “Si hay mucho, cuando el sol lo calienta, hace que la temperatura cambie y esa masa tiende a subir, como si estuvieran tirando de ella hacia arriba”. Es una de las razones de los remolinos, que pueden llegar a ser gigantes. “La presión y la temperatura siguen el ciclo diario de la insolación, muy influenciado por la cantidad de polvo y la presencia de nubes en la atmósfera”, señala Sánchez-Lavega

Remolinos. “Son más abundantes en Jezero que en cualquier otro lugar de Marte y pueden ser muy grandes, superando los 100 metros de diámetro. Con MEDA hemos podido caracterizar no solo sus aspectos generales (tamaño y abundancia) sino también desentrañar cómo funcionan estos torbellinos”, afirma Ricardo Hueso, profesor de la Escuela de Ingeniería de Bilbao (BEI) tras la publicación de resultados en Nature Geoscience.

La reunión de Sevilla ha servido también para analizar la estrategia futura. El MEDA es parte de un complejo programa de exploración que depende del Perseverance y los dispositivos asociados. La clave del éxito de la misión es su supervivencia hasta que un vehículo recoja las muestras obtenidas hasta ahora. Por esta razón, la estrategia común es mantener todos los dispositivos a salvo y evitar exploraciones que los pongan en peligro. En ese equilibrio entre la ansiedad de exploración, los costes y la cautela también se tiene que mover la estrategia del equipo meteorológico marciano.

Puedes seguir a MATERIA en Facebook, X e Instagram, o apuntarte aquí para recibir nuestra newsletter semanal.

Seguir leyendo

]]>
NASA/JPL-Caltech/ASU/MSSS
<![CDATA[Alicia Troncoso, presidenta de la Asociación Española de Inteligencia Artificial: “No existen máquinas con sentido común”]]>https://elpais.com/tecnologia/2023-11-19/alicia-troncoso-presidenta-de-la-asociacion-espanola-de-inteligencia-artificial-no-existen-maquinas-con-sentido-comun.htmlhttps://elpais.com/tecnologia/2023-11-19/alicia-troncoso-presidenta-de-la-asociacion-espanola-de-inteligencia-artificial-no-existen-maquinas-con-sentido-comun.htmlSun, 19 Nov 2023 04:20:00 +0000Alicia Troncoso Lora, nacida en Carmona (Sevilla), lleva recibiendo reconocimientos desde el final de su formación universitaria, que transcurrió por Sevilla, Nueva York y California. Catedrática de Lenguajes y Sistemas Informáticos de la Universidad Pablo de Olavide, es ahora presidenta de la Asociación Española de Inteligencia Artificial (AEPIA). Defiende que esta herramienta tiene que ser entendida como “un proyecto de país” que incluya, además de la visión tecnológica, una perspectiva social, humanística, jurídica y ética. “Es imprescindible”, asegura.

Pregunta. Una definición básica de la inteligencia artificial (IA) hace referencia a sistemas y programas con capacidades propias de los humanos. ¿Nos sustituirán?

Respuesta. Es un miedo que todo el mundo tiene en su interior viendo los avances de la inteligencia artificial. Pero sustituir a una persona es complicado porque una persona tiene muchísimas cualidades que, hoy en día, no pueden tener las máquinas. No existen máquinas con sentido común. Que nos sustituyan está muy lejos, porque la inteligencia artificial que está avanzando ahora mismo es específica, es decir, que se construyen algoritmos y máquinas que aprenden para desempeñar unas tareas concretas. Si la tarea cambia, necesitas otra máquina u otro algoritmo, mientras que una persona, por sí sola, es multitarea: lo hace todo porque la inteligencia humana es generalista. Sí van a ejecutar determinadas tareas que hacen las personas.

A la máquina hay que decirle qué es el bien y el mal. Ella no lo sabe. Por sí sola no puede distinguir”

P. ¿Pero podrán distinguir el bien del mal?

R. Una máquina hará lo que nosotros diseñemos. A la máquina hay que decirle qué es el bien y el mal. Ella no lo sabe. Por sí sola no puede distinguir, pero sí está en la ética de todo el sector —investigadores, desarrolladores, empresas y gobiernos—que esa inteligencia artificial se diseñe cumpliendo unos determinados requisitos para que luego no nos veamos envueltos en problemas relacionados con la ética.

P. ¿Cuáles?

R. Hay muchos y están relacionados con la justicia y la transparencia. Los sistemas inteligentes van a tomar decisiones o ayudar a tomarlas. Por ejemplo, se pueden emplear para conceder créditos y hay que garantizar que actúe sin sesgos, porque ya se han visto algunos sistemas que actúan de forma discriminatoria. Los sistemas inteligentes deben garantizar la equidad, que no haya ningún tipo de sesgo ni discriminación. Es un gran desafío relacionado con la justicia. El otro, y sobre el que hay mucha investigación ahora mismo, es la transparencia: si van a tomar decisiones que afectan a las personas, tenemos que saber cómo funcionan. Si no conceden un crédito, que se pueda saber el porqué.

P. La inteligencia artificial ha pasado de ser una disciplina para expertos a convertirse en una herramienta que usan incluso los escolares, como ChatGPT. ¿Es beneficiosa?

R. Se están empezando a ver grandes beneficios y se verán mucho más. Hay aplicaciones para neuroprótesis que permiten distinguir colores a personas que llevaban 12 años sin ver o para permitir la movilidad de un brazo articulado solo con el pensamiento o para activar neuronas a partir de un recuerdo, que se relaciona con el alzhéimer. En un futuro no muy lejano, pueden ayudar en muchos problemas de salud.

La materia prima de la inteligencia artificial son los datos y en este sentido hay riesgos de seguridad y de privacidad. También tiene impacto laboral. Por eso es tan importante una regulación”

P. El caso de Almendralejo, donde unos adolescentes recrearon desnudos de compañeras con inteligencia artificial, demuestra que hay riesgos.

R. Hay muchos riesgos y los vemos cada día. La materia prima de la inteligencia artificial son los datos y en este sentido hay riesgos de seguridad y de privacidad. También tiene impacto laboral. Por eso es tan importante una regulación.

P. Los algoritmos deciden el precio de un pasaje, nuestras relaciones sociales, nuestras compras… ¿La inteligencia artificial se ha colado en nuestras vidas sin que nos demos cuenta?

R. Estamos rodeados de inteligencia artificial y la tenemos tan interiorizada que no la distinguimos, no somos conscientes o no le damos importancia. ¿Cuántos años hace que usamos Google Maps? Esta aplicación es inteligencia artificial. Las aspiradoras inteligentes tienen los planos de tu casa. La publicidad que me llega es distinta a la que le llega a otra persona. Todo eso tiene inteligencia artificial y, por supuesto, está condicionando nuestros hábitos de consumo, nuestro ocio, muchos aspectos de la vida social de cada persona.

Estamos rodeados de inteligencia artificial y la tenemos tan interiorizada que no la distinguimos, no somos conscientes o no le damos importancia”

P. ¿Hacia dónde vamos?

R. Creo que ahora se está abogando por una inteligencia artificial verde. La IA también consume energía y también está contribuyendo a este cambio climático. Ahora mismo hay iniciativas muy potentes para que la inteligencia artificial sea verde y que el consumo de energía de esos algoritmos que todas las grandes plataformas tienen debajo, como Google o Meta, sea el menor posible. También, debido a la próxima regulación, se trabaja en una inteligencia artificial diseñada y centrada en la persona, para evitar todos esos daños colaterales. Se está avanzando sobre la productividad en el campo… La inteligencia artificial es como todo: bien usada, puede aportarnos beneficios. Pero, para usarla bien, también se necesita formación en valores y una ética para saber qué es lo que está bien y qué es lo que está mal.

P. Por lo tanto, como ha dicho, es necesaria la regulación.

R. Es muy necesaria. Ahora mismo ya hay una propuesta de reglamento de la inteligencia artificial en la UE que clasifica las herramientas según el impacto sea alto, medio o bajo. En función de eso, habrá unos requisitos definidos para las herramientas de inteligencia artificial. Este marco general irá avanzando para que incluyan todos los casos que se pueden dar.

La legislación siempre es lenta mientras la tecnología es todo lo contrario”

P. ¿Llega tarde?

R. La tecnología avanza muy rápido y el derecho y la legislación, son lentos porque las leyes tienen mucho impacto y tiene que pasar por diferentes organismos y someterse a discusión para garantizar que verdaderamente cumple su fin y no supone un perjuicio para las personas. La legislación siempre es lenta mientras la tecnología es todo lo contrario.

P. Algunos directivos de empresas tecnológicas e intelectuales abogaron por parar hasta tener un marco consensuado. ¿Es necesario?

R. Esa petición, firmada por muchos directivos de grandes empresas que se dedican a la inteligencia artificial, surgió cuando explosionó ChatGPT. Hay muchos intereses cruzados en esas empresas. Cuando Google o Meta han sacado un producto de inteligencia artificial al mercado, no se han preocupado por el daño que podía hacer esa inteligencia artificial. Se han preocupado cuando ha surgido ChatGPT porque lo ha sacado otra empresa que no es la suya. En esa petición hay muchos intereses contrapuestos y hay que ponerla un poco en cuarentena. La inteligencia artificial no debe parar, pero sí debe avanzar conforme a una regulación, a unas pautas, a una ética, para asegurar que está centrada en las personas y se usa para su beneficio.

Puedes seguir a EL PAÍS Tecnología en Facebook y X o apuntarte aquí para recibir nuestra newsletter semanal.

Seguir leyendo

]]>
PACO PUENTES
<![CDATA[Veinte ámbitos cotidianos donde ya impacta la inteligencia artificial]]>https://elpais.com/tecnologia/2023-11-19/veinte-ambitos-cotidianos-donde-ya-impacta-la-inteligencia-artificial.htmlhttps://elpais.com/tecnologia/2023-11-19/veinte-ambitos-cotidianos-donde-ya-impacta-la-inteligencia-artificial.htmlSun, 19 Nov 2023 04:20:00 +0000La inteligencia artificial (IA), la capacidad de las máquinas para imitar el razonamiento humano en la toma de decisiones, está presente en todos los ámbitos, desde los más cotidianos hasta los procesos industriales y científicos. Estas son las 20 áreas donde más impactan ya:

Empleo. Es uno de los aspectos que más preocupa. Un informe de MaKinsey Global Institute calcula que el 60% de las ocupaciones podrían automatizarse en esta década. La OCDE y la consultora Goldman Sachs calculan una destrucción de puestos de trabajo de entre el 14% y el 35%. Por el contrario, un informe del Foro Económico Mundial estima que la IA podría crear hasta 133 millones de puestos de trabajo en todo el mundo en los próximos 15 años. De esta forma, la IA tendrá un impacto mixto en el empleo: destruirá puestos que requieren tareas repetitivas y rutinarias y creará nuevos vinculados a las aplicaciones de la IA, lo que exigirá formación y adaptación de los empleados al nuevo entorno.

Gestión empresarial: En el mismo campo laboral y económico, la inteligencia artificial permite gestionar una cadena de suministros de forma autónoma, optimizar la toma de decisiones, ejecutar la contabilidad e incluso controlar las fases de producción. Los grandes fabricantes de vehículos y supermercados, por ejemplo, fueron pioneros en su desarrollo. Hazem Nabih, director de tecnología en Microsoft, asegura que “la productividad de cualquier empresa aumenta entre un 30% y un 50%” con la nueva tecnología. La secretaria general de CCOO de Andalucía, Nuria López Marín, reclama que “los mayores beneficios se traduzcan en mejoras para los trabajadores” y que los robots tributen por los empleos que ocupan y destruyen.

Información y desinformación. Aplicaciones como Inmagine pueden crear cualquier tipo de contenido a bajo coste. Vídeos, páginas webs, mensajes en redes o comunicados a raíz de los datos que se le aporten. Esto permite agilizar la difusión, pero también crear información falsa y verosímil, un resultado conocido como deepfakes que amenaza la democracia, se usa como arma de guerra o ataca a la intimidad de las personas. Ha sido el caso de la detención en Almendralejo, a finales de septiembre, de una veintena de menores por recrear con inteligencia artificial desnudos de compañeras de instituto. Más del 90% de los vídeos falsos hiperrealistas, que se duplican cada seis meses, son pornografía no consentida.

Salud: Es uno de los campos más prometedores. La IA facilita el diagnóstico médico a través del análisis de imágenes o datos, permite el desarrollo de nuevos tratamientos o la personalización de estos en función de las condiciones del paciente. “La convergencia de la IA y la medicina de precisión ofrece un enfoque personalizado que tiene en cuenta factores genéticos, biológicos y ambientales de cada paciente. Esto permite identificar patrones y necesidades de atención médica únicas. El sistema de IA genera ideas, razona y aprende para ayudar en la toma de decisiones del médico”, afirma Albert Alsina, director de la firma suiza de ingeniería de software ERNI Consulting.

Educación. ChatGPT o Bard se han convertido en herramientas habituales de los estudiantes para la elaboración de trabajos. Pero también pueden facilitar la docencia. La Unesco percibe la IA como “una herramienta de enorme potencial con riesgos y desafíos”. “Si bien puede proporcionar respuestas rápidas y fáciles a las preguntas, no desarrolla habilidades de pensamiento crítico y resolución de problemas, que son esenciales para el éxito académico y en la vida”, explica Jenna Lyle, del Departamento de Educación de la Ciudad de Nueva York.

Entretenimiento y creación de contenidos. Ya no es que seleccione producciones cinematográficas a partir de las preferencias del usuario, sino que la inteligencia artificial es capaz de crear películas, música y videojuegos. “Hay un gran debate con lo que son los derechos de autor porque los sistemas de IA generativa se alimentan libremente de todo lo que circula en la red”, advierte Cecilia Danesi, experta en regulación digital. La sustitución de guionistas y actores por creaciones de la inteligencia artificial ha sido uno de los ejes de la huelga de Hollywood finalizada el 9 de noviembre tras 118 días de paro. Nuevas normas regularán el uso de la inteligencia artificial en el cine.

Reconocimiento de voz, texto e imagen: Desde los robots de diálogo inteligentes (chatbots) hasta los programas más habituales, como Word, permiten identificar las diferentes voces y acentos, los textos y las imágenes para aportar respuestas, reproducciones o traducciones. La usan, por ejemplo, las aplicaciones Bard, ChatGPT o Google Lens. También se utiliza en reconocimiento de matrículas y tiques o en dictados y traducción automática. Su facilidad de uso y accesibilidad es una de las principales amenazas. La firma de seguridad Kaspersky ha probado MyAI, el chatbot de la aplicación Snapchat que lo pueden usar niños de hasta 13 años sin consentimiento paterno. Los expertos de la empresa de ciberseguridad llegaron a la conclusión de que se pueden obtener respuestas de tipo sexual sin necesidad de verificar la edad. “Existe una clara necesidad de proteger a los niños. Los padres deben entender que prohibir no es la mejor opción. Siempre hay algo en Internet a lo que van a estar expuestos. Es esencial fomentar la educación a la hora de navegar por la red y trabajar con los menores para mitigar los riesgos”, asegura Noura Afaneh, analista de contenido web de Kaspersky.

Aprendizaje automático: Permite a los sistemas aprender de los datos sin ser explícitamente programados. Los asistentes de voz, como Siri, Alexa, Ok Google o Bixby, recurren a este sistema para ejecutar acciones de forma autónoma en función de las rutinas de los usuarios. También permite la detección de fraudes y es fundamental en los programas de recomendación de productos y diagnóstico médico. “La combinación de tecnologías y el aprendizaje automático tiene el potencial de revolucionar la forma en que fabricamos productos”, asegura Sudhanshu Gaur, vicepresidente de Hitachi América.

Visión artificial. Las máquinas no solo pueden ver, sino también entender el mundo que las rodea. Se usa para reconocimiento facial, por ejemplo, en el control de fronteras, o para la detección de objetos en los asistentes de conducción, que aspiran a ser autónomos.

Robótica. Permite a las máquinas realizar tareas complejas, como navegación, manipulación y aprendizaje. El robot humanoide Digit se ha incorporado a los almacenes de Amazon de forma experimental. “Aquellas labores repetitivas y mundanas las puede hacer un robot y, de hecho, las hace mejor. Se trata de una colaboración hermosa entre máquina y humanos trabajando en conjunto”, asegura Tye Brady, director de Tecnología de Amazon Robotics

Atención al usuario. Las máquinas, que se han sofisticado hasta crear asistentes holográficos con aspecto humano, pueden responder a demandas habituales, desde la compra de productos y servicios hasta servir de guías turísticos o puntos de información.

Ventas. Ninguna acción en una plataforma digital de ventas o en los buscadores habituales, incluso los lugares que frecuenta, escapa a la inteligencia artificial, que utiliza esos datos para dirigir su actitud de compra y modificar las ofertas.

Finanzas y asesoría. Análisis financieros, gestión de riesgos, decisiones de inversión y asesorías jurídica y económica se realizan ya mediante complejos sistemas de análisis de datos. Jesús Lorente, economista y auditor, afirma tras la presentación de GenIA-L: “No se puede competir con esta herramienta, ya que, aunque uno haga un trabajo bien, la IA lo puede mejorar”.

Seguridad. Los nuevos sistemas son fundamentales para detectar amenazas, prevenir el fraude (uso de identificación biométrica) y proteger la privacidad, pero al mismo tiempo pueden ser todo lo contrario si se usa de forma maliciosa o sin regulación. Es lo que los expertos denominan el “juego del gato y el ratón”. A cada progreso surge un potencial uso delictivo. “A medida que la tecnología ha avanzado, también lo han hecho las tácticas empleadas por los estafadores”, admite Luis Corrons, responsable de seguridad de Avast.

Observación y respuesta inmediata. Monitorear el medio ambiente, predecir el clima y desarrollar soluciones sostenibles son actividades inconcebibles, ya sin los sistemas capaces de analizar la ingente cantidad de datos procedentes de sensores espaciales y terrestres. La red móvil 5G se ha utilizado para que, a través de la información de sensores, drones y robots autónomos, la IA prediga incendios. Joaquín Colino, director general en Orange, compañía que ofrece esta aplicación, destaca: “Estas tecnologías permiten que el procesamiento de los datos se realice muy cerca del lugar donde se generan, lo que resulta clave en todas las aplicaciones que requieren tiempos de respuesta inmediatos, como la automatización industrial, los servicios de seguridad o el desarrollo de ciudades inteligentes”.

Transporte. Es uno de los ejes fundamentales de las conocidas como ciudades inteligentes, donde se utiliza la IA para mejorar la seguridad vial, optimizar el transporte público y desarrollar nuevos modos de movilidad. También se aplica en las grandes cadenas logísticas o en aviación o tráfico ferroviario. El secretario la Red Española de Ciudades Inteligentes, Daniel Vega, afirma: “Vivimos dentro de la década digital y es necesario abordar de forma ágil cualquier proceso. El apoyo de la industria de las smart cities, especialmente en tecnologías disruptivas, es esencial para lograr dicho objetivo”.

Agricultura. Con la ayuda de sensores, los nuevos sistemas permiten optimizar la producción agrícola, regular el riego, detectar plagas y establecer el momento óptimo de una cosecha.

Gobierno. La IA es fundamental para mejorar la eficiencia de los servicios públicos, tomar decisiones y proteger la seguridad nacional. El Consejo de la UE y el Parlamento Europeo han acordado impulsar la nueva identidad digital europea (eID), que facilitará a los ciudadanos y empresas una identificación y autenticación electrónicas seguras y fiables.

Ciencia. La inteligencia artificial es capaz de identificar las alteraciones en el genoma que provocan la aparición de enfermedades o reducir a días el hallazgo de moléculas con propiedades medicinales. El biotecnólogo español César de la Fuente, premio Princesa de Girona de investigación científica y profesor de bioingeniría en la Universidad de Pensilvania (EE UU), la utiliza para identificar compuestos con potencial antimicrobiano: “Ahora se puede hacer en semanas lo que antes costaba años de investigación.

Redes sociales. El sistema automático no solo decide ya los vínculos prioritarios en las redes sociales, sino que también ayuda a los usuarios a redactar textos, un uso extendido ya en aplicaciones de citas para evitar faltas de ortografía y proponer mensajes más atractivos.

Puedes seguir a EL PAÍS Tecnología en Facebook y X o apuntarte aquí para recibir nuestra newsletter semanal.

Seguir leyendo

]]>
ADAM VAUGHAN
<![CDATA[El ojo electrónico que imita la visión humana]]>https://elpais.com/ciencia/2023-11-16/el-ojo-electronico-que-imita-la-vision-humana.htmlhttps://elpais.com/ciencia/2023-11-16/el-ojo-electronico-que-imita-la-vision-humana.htmlThu, 16 Nov 2023 04:20:00 +0000Una de las aspiraciones de la ciencia y la tecnología es desarrollar sistemas con las capacidades del más complejo organismo de la naturaleza: el formado por los 37 billones de células del cuerpo humano. En su conjunto, es inabarcable, pero sí se puede avanzar parcialmente. El Instituto de Microelectrónica en la capital andaluza (Imse), del Consejo Superior de Investigaciones Científicas (CSIC) y la Universidad de Sevilla, se ha centrado en el sistema que hace posible la visión. Las cámaras convencionales captan una imagen que, repetida entre 30 y hasta 100.000 veces por segundo, forman una secuencia. Pero el ojo y las conexiones con el cerebro permiten ir más allá y pueden focalizar y percibir cambios mínimos que permiten adaptarse para interpretar el entorno y actuar en consecuencia sin necesidad de almacenar toda la información. Es una capacidad que el Imse aplica ya en sensores dinámicos de visión (DVS por sus siglas en inglés) para cámaras por eventos que han adoptado empresas como Samsung y Sony.

Las cámaras convencionales se asemejan más a la pintura hiperrealista que a la visión. Captan la imagen de un encuadre y la reproducen. Sus principales avances han sido de resolución: incorporar más píxeles para ganar en definición y sortear los defectos posibles con procesamiento. “Pueden aportar una cantidad ingente de datos que necesitan una central y un montón de cableado para transmitirla. Pero alguien tiene que procesar”, explica Bernabé Linares, profesor de investigación del Imse.

“La retina biológica no toma imágenes. Toda la información va por el nervio óptico y el cerebro la procesa. En la cámara convencional, cada pixel es autónomo y, como mucho, se le hace interactuar con sus vecinos para ajustar la luminosidad. Pero una imagen digital a la salida de un túnel puede ser toda blanca o negra mientras que nosotros, salvo en condiciones muy extremas, podemos ver lo que hay dentro y fuera”, añade el investigador. Esta capacidad es fundamental, por ejemplo, para el desarrollo de los vehículos de conducción autónoma.

Esta característica de la visión humana se conoce como foveación, un mecanismo que permite maximizar la resolución en la zona donde se enfoca la vista mientras que mantiene una baja en las áreas de visión periférica. De esta forma, se reduce la cantidad de información generada por la retina, pero se mantiene la capacidad de reconocimiento visual para la toma de decisiones.

El Grupo de Sistemas Neuromórficos del Imse busca un ojo electrónico con esas y otras capacidades inspiradas en la biología, un sensor que permita resultados a gran velocidad, sin enormes consumos de potencia y que minimice la cantidad de datos necesarios para un procesamiento eficaz. Con estas premisas se ha desarrollado la cámara de eventos, que no trabaja con fotogramas, sino con flujos continuos de impulsos eléctricos (eventos o spikes) producidos por cada fotosensor (o píxel) de forma autónoma cuando detecta un cambio suficiente de luz.

“En estas cámaras”, precisa Linares, “la información de partida la aportan los contornos de los objetos. Pero no son imágenes: es un flujo dinámico de los píxeles (eventos) que van cambiando y la fase de procesado imita al cerebro, que también establece una jerarquía de capas”.

Aunque el germen de la nueva aproximación a las imágenes surgió en el Instituto de Tecnología de California (Caltech) en los noventa, su uso para imitar al ojo humano comenzó hace 20 años en Suiza con un proyecto europeo coordinado por el Imse y denominado CAVIAR. A partir de ahí comenzaron las patentes, las empresas surgidas de la investigación, los inversores y la adopción de los desarrollos por parte de empresas como Samsung y Sony para el desarrollo de procesadores de imagen. “El objetivo”, explica el investigador del Imse, “es desarrollar una fóvea [la región de la retina especializada en la visión fina de los detalles] electrónica”. Este dispositivo permite que, sin generar mucha información, identifique la zona de interés y que sea esta la que se procese en alta resolución.

Este dispositivo es fundamental para discriminar los datos relevantes para la conducción autónoma, agilizando el procesamiento y minimizando el consumo de recursos. “Si la cámara ve una señal o un peatón u otro vehículo, no tiene que analizar toda la imagen sino solo el nuevo elemento”, explica Linares.

Pero también tiene implicaciones extraordinarias en sensores de cualquier actividad, como vigilancia y seguimiento por imagen, al activarse solo cuando se produce una alteración relevante, o en diagnóstico por imagen, al señalar únicamente las áreas alteradas, o en navegación de drones. Una investigación encabezada por Bodo Rueckauer, de la universidad holandesa de Radboud, recurre a un sensor de visión dinámica (DVS), como el desarrollado por el Imse: “Este sensor sin fotogramas señala los cambios de intensidad de la luz en función de los píxeles y se caracteriza por un alto rango dinámico y una resolución temporal de microsegundos. Una inteligencia artificial entrenada para realizar el reconocimiento de gestos logra una precisión del 90% a través del DVS”.

Teresa Serrano, científica y directora del Imse, señala cómo la neurociencia puede recurrir a procesadores que interaccionen con los sistemas neuronales y sirvan para pacientes de epilepsia o párkinson.

La actual línea de investigación se agrupa en el proyecto Nimble AI, que pretende aprovechar los últimos avances en microelectrónica y tecnología de circuitos integrados para crear la detección y procesamiento neuromórfico con mayor seguridad y privacidad a un menor coste, consumo energético (hasta 100 veces menos) y latencia (50 veces más rápido en el tiempo de respuesta).

Una de las empresas surgidas del grupo de investigación ha sido Chronocam, que ahora se llama Prophesee. “Esencialmente, lo que estamos desarrollando es un nuevo enfoque para la detección de información, muy diferente a las cámaras convencionales que han existido durante muchos años”, afirma Luca Verre, director general de Prophesee.

“Nuestros sensores producen volúmenes de datos muy bajos. Por lo tanto, permiten tener un sistema de bajo consumo y costo razonable porque, simplemente, puede generar algunos datos de eventos con los que el procesador puede interactuar fácilmente y localmente. En lugar de alimentarlo con toneladas de fotogramas que los sobrecargan y dificultan su capacidad para procesar datos en tiempo real, la cámara de eventos permite hacerlo en tiempo real en una escena”, explica Verre.

Puedes seguir a MATERIA en Facebook, X e Instagram, o apuntarte aquí para recibir nuestra newsletter semanal.

Seguir leyendo

]]>
<![CDATA[La ESA cambia de rumbo con el aval de gobiernos y empresas: “No se puede competir con entidades dopadas”]]>https://elpais.com/ciencia/2023-11-11/la-esa-cambia-de-rumbo-con-el-aval-de-gobiernos-y-empresas-no-se-puede-competir-con-entidades-dopadas.htmlhttps://elpais.com/ciencia/2023-11-11/la-esa-cambia-de-rumbo-con-el-aval-de-gobiernos-y-empresas-no-se-puede-competir-con-entidades-dopadas.htmlSat, 11 Nov 2023 04:20:00 +0000Más allá del compromiso de culminar el Ariane 6, el lanzador europeo que acumula cuatro años de retraso y 350 millones de sobrecostes, y el Vega C, sucesor del cohete que estalló ocho minutos después de despegar en 2020, la pasada cumbre de Sevilla entre la Agencia Espacial Europea (ESA por sus siglas en inglés) y los representantes de la UE concluyó con un giro fundamental: el cambio de rumbo en las estrategias de exploración y explotación del espacio. La ESA sigue la estela de su homóloga estadounidense (NASA) y se convertirá en un cliente básico de la industria, sobre la que recaerá el mayor peso del futuro desarrollo más allá de la atmósfera. El primer desafío de esta nueva estrategia será construir una nave para crear el primer Amazon del espacio, un servicio con capacidad de llevar y traer cargas. Tres empresarios del New Space, como se conoce al sector emergente en este ámbito, responden en una entrevista conjunta al nuevo desafío y aplauden la decisión de acabar con una política que califican de “entidades dopadas”.

“El ecosistema espacial europeo tiene que ser más dinámico, más rentable y aportar soluciones más innovadoras”, admite la alemana Anna Christmann, coordinadora de la política espacial de su país y presidenta de la cumbre de Sevilla. Este cambio de política pasa por convertir a la ESA en un “cliente ancla”, un contratista de servicios estable con suficiente capacidad financiera, pero no en una entidad responsable del desarrollo de todo el proceso de exploración y explotación. Y sobre este aspecto hay acuerdo, según manifiesta el austriaco Josef Aschbacher, director general de la ESA: “Hemos negociado muy duro con los 22 Estados miembros y llegamos a este consenso”. A partir de ahora, la contratación no será en función de las aportaciones de cada Estado a la ESA, sino por competencia entre las empresas.

Participantes en la cumbre informal de la Agencia Espacial Europea y la UE celebrada en Sevilla el pasado martes.

España parte en buena posición para esta nueva carrera. Ezequiel Sánchez, presidente ejecutivo de PLD Space, la primera empresa privada europea en lanzar un cohete desde territorio continental (Miura 1); Jaume Sanpera, director de Sateliot, primera entidad en ofrecer conectividad por satélite para el internet de las cosas (pequeños dispositivos); y Juan Tomás Hernani, fundador y consejero Delegado de Satlantis, líder global de tecnologías miniaturizadas de observación de la Tierra, analizan en una entrevista conjunta el nuevo escenario. Todos han duplicado o triplicado facturación y empleo en los últimos ejercicios.

Pregunta. ¿Es acertado el cambio de rumbo de la ESA?

E. S. La política de devolver la aportación de los Estados en forma de contratos que desarrollan contratistas específicos ha tenido un recorrido: se han generado elementos tecnológicos que se han tratado de transferir a la industria. Pero eso puede ser un atajo que, muchas veces, dificulta la competencia. Dentro del sector privado, hemos conseguido realizar con un mismo nivel de calidad, pero con unos costes y unos tiempos muy distintos, elementos con capacidad de poder competir. Que no exista una industria que pueda estar dopada, que esté condicionada desde el sector público, subvencionando unos determinados servicios que no sean competitivos, favorece la competitividad. Es un cambio significativo. Tenemos que centrarnos en tener una industria competitiva y eso requiere colaboración. Lo privado puede tirar y lo público puede complementar. Pero debemos tener unas reglas de competencia que nos permitan desarrollar elementos orientados al cliente, no desde la oferta, sino desde la demanda.

J. S. Es el principal cambio. Hasta ahora la ESA decidía qué se tenía que investigar y, por lo tanto, puede haber un desfase entre lo que el mercado necesita y lo que la ESA piensa que el mercado va a necesitar. Ahora, con un sector privado cada vez más potente, es factible dejar que este tire aprovechando la demanda. Es muy difícil que las compañías dopadas sean competitivas.

J. T. H. Tenemos que hilar muy fino y saber cuál es nuestra senda. Se trata de ser competitivo a nivel internacional, no de ser un gran integrador. No se trata de tener un satélite fabricado cien por cien en España, ojalá; se trata de que, si ese es el objetivo, es porque se vende en Bulgaria, Colombia o Emiratos Árabes. Cualquier estrategia tiene que ir enfocada a la competitividad internacional, a que a que seamos los primeros, los mejor posicionados para vender en determinados mercados y aguantar. Está China o India, o sea, que la situación es muy complicada como para que hagamos tonterías. Tenemos que migrar de un modelo de cuota, que hace que el sector sea muy cerrado, un zoo, a un mercado muchísimo más abierto. La inversión española pública en tecnología espacial es clave y hay que regar el jardín, pero el objetivo no es el tronco, sino las ramas, que tienen que ser 20 veces mayores que el tronco. La Agencia Espacial Española tiene que servirnos como oportunidad para ese cambio institucional que permita la migración, que vayamos dando paso a tecnologías competitivas a nivel internacional.

Dentro del sector privado, hemos conseguido realizar con un mismo nivel de calidad, pero con unos costes y unos tiempos muy distintos, elementos con capacidad de poder competir

Ezequiel Sánchez, presidente ejecutivo de PLD Space

P. ¿Esa mercantilización puede poner en riesgo la investigación científica?

E. S. Hay muchas líneas científicas que van a existir y continuar con la explotación comercial. Es cuestión de buscar el socio adecuado. En Estados Unidos ocurre. Cuando la NASA encarga a Space X un lanzador más grande, la empresa lo necesita para desplegar su constelación de satélites, pero hay una colaboración para desarrollar el vehículo que irá a la Luna o a Marte o para uso científico. Se desarrollan elementos de uso científico, pero está teniendo una explotación comercial detrás.

J. S. Seguirá habiendo proyectos puramente científicos. No se trata solo de comprar servicios. Los contratos públicos y privados permitirán que se desarrollen de forma competitiva.

De izquierda a derecha, Ezequiel Sánchez, Juan Tomás Hernani y Jaume Sanpera, tras la entrevista en la Semana del Espacio de Sevilla.

P. ¿Qué papel tendrá la Agencia Espacial Española?

E. S. Debe tener un programa nacional de impacto transversal en toda la industria y en muchos ministerios. Eso puede tener un gran valor para ir a una soberanía nacional en el espacio que hay que mantener. España ya es competitiva, pero lo ha sido con cuotas en programas y en contratos específicos. Ahora vendrán empresas que son competitivas en un sistema completo que da servicio con una parte privada y otra parte pública.

P. ¿Es posible una soberanía espacial española?

J. T. H. Imposible. En todos los ámbitos es imposible. La respuesta es clara: hay que determinar los ámbitos que nos gustarían y lo que hay. Hoy estamos en una serie de empresas que no existíamos hace 10 años y con más de 1.000 ingenieros que no existían. Esa es una realidad con la que deberíamos construir los siguientes los siguientes pisos.

P. ¿Qué pisos?¿Qué debe ser prioritario?

J. T. H. Lo que se ha dicho en la cumbre. Hay que comprar. Yo veo al Miteco [Ministerio para la Transición Ecológica y el Reto Demográfico] pensando en cómo detecta las emisiones de gases industriales o aguas y suelos contaminados por sus propios medios. Puede ser un gran impulsor del sector del espacio. Pensemos en transporte, en tráfico de contenedores. El sector público tiene que jugar un papel tractor, tirar de lo que el espacio le puede dar. Y tenemos que valorar 1.000 veces más al cliente, al usuario. Nosotros tenemos dos empresas gasistas que se han unido al espacio porque les preocupan las emisiones de metano. Eso va a hacer crecer el sector

J. S. Existe un mercado enorme que solo puede ser cubierto desde el espacio. La conectividad se ha impulsado solo en las ciudades. Pero eso es solo el 20% de la superficie terrestre. Nosotros tenemos vendidas cinco millones de conexiones fuera de esa zona de cobertura. Eso te está diciendo que hay una necesidad no cubierta en agricultura, en medio ambiente, en bosques, en ganadería, en control de infraestructuras, como vías de tren o líneas de alta tensión o costas o fronteras.

E. S. La infraestructura crítica se ha desplazado al espacio y el Estado debe posicionarse como comprador porque su infraestructura crítica va a tener impacto en la vida de los seres humanos.

Existe un mercado enorme que solo puede ser cubierto desde el espacio.

Jaume Sanpera, director de Sateliot

P. ¿Y se puede competir con gigantes como Amazon o Space X?

J. S. No hay manera de competir ahí. Lo que estamos haciendo es 5G para internet de las cosas con equipos asequibles que permitirá la conectividad masiva de cualquier torre de alta tensión o cualquier vaca. Tenemos contratos de centenares de contenedores refrigerados para actuar ante cualquier eventualidad sin perder el contenido. Las bicicletas de montaña tendrán sensores este tipo.

J. T. H. Es esencial decir que no vamos a competir contra los grandes monstruos. Aquí la fiesta la paga el sector que está haciendo que todo esto cambie: las compañías digitales. Nosotros buscamos nichos o los hacemos. Está el mundo de las telecomunicaciones, el mercado de la observación y el del posicionamiento.

Es esencial decir que no vamos a competir contra los grandes monstruos. Aquí la fiesta la paga el sector que está haciendo que todo esto cambie: las compañías digitales. Nosotros buscamos nichos o los hacemos

Juan Tomás Hernani, fundador y consejero Delegado de Satlantis

P. ¿Hay músculo financiero suficiente?

J. S. Es diferente en Estados Unidos, pero también es verdad que en Europa y, en concreto, en España somos capaces de desarrollar cosas con un capital muchísimo más pequeño. Pero las compañías necesitan un periodo de maduración mayor para dar resultados y esta es una dificultad.

E. S. Nosotros hemos tardado 11 años y enfrentado barreras altísimas. Es sencillo hacer tecnología, pero para defenderla y ser competitivo en el largo plazo tienes que superar muchas dificultades. Hay que encontrar ese capital paciente que pueda financiar cada una de las etapas.

P. ¿Y no es más rápido y barato comprar en China?

J. T. H. El contenido tecnológico propio que aportas frente a la competencia es lo que te va a permitir seguir.

P. ¿Y hay talento?

E. S. Estamos importando talento porque tenemos compañías muy atractivas para trabajar. Duplicamos los empleos cada año. Hay guerra por el talento, pero hay compañías que son atractivas.

Puedes seguir a MATERIA en Facebook, X e Instagram, o apuntarte aquí para recibir nuestra newsletter semanal.

Seguir leyendo

]]>
PACO PUENTES
<![CDATA[“Entramos en una era que conduce a algo increíble y profundo nunca visto”: la IA toma la mayor feria tecnológica]]>https://elpais.com/tecnologia/2023-11-10/entramos-en-una-era-que-conduce-a-algo-increible-y-profundo-nunca-visto-la-ia-toma-la-mayor-feria-tecnologica.htmlhttps://elpais.com/tecnologia/2023-11-10/entramos-en-una-era-que-conduce-a-algo-increible-y-profundo-nunca-visto-la-ia-toma-la-mayor-feria-tecnologica.htmlFri, 10 Nov 2023 04:20:00 +0000“Entramos en una era que va a conducir a algo increíble y profundo que nunca se ha visto antes”. Lo dice Omar Bin Sultan Al Olama, dubaití de 33 años y ministro de Inteligencia Artificial de Emiratos Árabes Unidos desde 2017. Fue el primer cargo ministerial del mundo en este ámbito y demuestra la fe de este país en esta tecnología. Y lo afirma también en un evento singular: la que se proclama como la mayor feria tecnológica del mundo (Gitex, organizada por Dubai World Trade Centre, y la muestra paralela Expand North Star, de la Cámara de Economía Digital) y en la que han participado, según la organización, 6.000 empresas de 180 países y más de 180.000 visitantes. Esta muestra, que tendrá por primera vez en sus 43 años de historia una réplica europea, en Berlín del 21 al 23 del próximo mayo, ha reunido la mayor exhibición de inteligencia artificial presente, con sus desafíos y sus amenazas.

El ministro dubaití defiende la supervisión de la nueva tecnología (Emiratos Árabes Unidos ha firmado la Declaración de Bletchley), pero rechaza sumarse a las corrientes proteccionistas. “No lo vamos a ser aquí. Vamos a gobernar para garantizar la vida de las personas en los ámbitos que les importa”, afirma para citar la desinformación y los bulos como amenazas emergentes y defender la cooperación internacional como herramienta. Pero aboga por dejar que “la tecnología en su conjunto se libere, en lugar de confinarse y restringirse”

Las dos muestras celebradas en Dubái bajo el lema AI Everything son un fiel reflejo de esta concepción. Estos son algunas de las propuestas más singulares. Algunas de ellas desafían la futura norma europea AI act o Ley de Inteligencia Artificial.

Imagen de una torera imaginaria creada a partir de inteligencia artificial.

Generación de contenidos. Es uno de los grandes ejes de la inteligencia artificial. Warren Leow, de Malasia, representa a Inmagine, una empresa nacida de una base de datos de imágenes que se ha especializado en desarrollar herramientas de diseño inteligentes, rápidas y fáciles para cualquier proceso creativo. Leow, conocedor de España, somete a una de sus plataformas a una prueba: “Torera en el Alcázar de Sevilla”. Ordena prescindir de imágenes de baja calidad, marcas de agua, zonas borrosas… El resultado es una mujer inexistente en un escenario ficticio, pero de gran calidad. Hace lo mismo con una información corporativa que incluya una marca conocida de coches con un equipo no menos conocido de fútbol. El resultado es impecable gramatical y estilísticamente. Y lo puede combinar todo para generar vídeos, páginas webs, mensajes en redes… Arnaud Ginioux, director de la empresa para el sur de Europa, muestra algunas creaciones ya realizadas para grandes marcas mientras justifica la ausencia de barreras para que las plataformas, con un coste inferior a los 10 euros al mes, generen contenidos falsos hiperrealistas: “Es una herramienta. La responsabilidad es del usuario”.

Soluciones de esta naturaleza abundan en Gitex y algunas están orientadas a la infancia, como la plataforma de creación de dibujos animados india Bhooshan’s Junior, que incorpora una opción de diálogo con inteligencia artificial para ser usada directamente por los menores mientras visionan el producto.

Reconocimiento facial. Esta herramienta, que ya ocupaba un espacio central en el Consumer Electronic Show (CES) de Asia (Shanghai) hace cuatro años, avanza a mucha más velocidad que las pretensiones de regulación de la Unión Europea, que prohibirá su uso indiscriminado. En el Gitex se mantiene la carrera acelerada por su desarrollo y algunas empresas ha presentado herramientas que “transforman cualquier cámara en un observador inteligente que permite el control de asistencia en la escuela o en el trabajo, así como la métrica de concentraciones de personas”.

En este campo, la empresa Saudí T2 ha presentado Availo, un sistema para controlar las horas de trabajo de los empleados mediante la técnica de internet de las cosas (IOT) a través del reconocimiento facial o reconocimiento de voz para cada empleado. “No necesita más que un teléfono inteligente para asegurarse de que estén presentes y a tiempo”, asegura la compañía.

Dennis Hong, fundador de RoMeLa, junto al robot Artemis en el Gitex de Dubái.

Robótica. No podía faltar en una feria tecnológica. Deep Robotics ha llevado sus modelos cuadrúpedos orientados a trabajos industriales y de rescate. Vera Huang admite que los mayores avances han sido motores, como la capacidad de saltar o subir escaleras, pero aclara, en referencia al potencial de la inteligencia artificial: “Se le pueden incorporar programas”.

Quien sí lo ha hecho ya es el conocido Dennis Hong, fundador de RoMeLa y creador de Artemis, el robot androide que juega al fútbol como demostración de la versatilidad conseguida en sus capacidades de movimiento. “El 99,9% de los robots que existen hoy en día utilizan servomotores y son muy rígidos. Son excelentes para la automatización de fábricas o para tareas únicas domésticas, pero realmente no se pueden usar para caminar. Este robot [Artemis] imita el músculo biológico y le permite ser ágil, rápido y muy robusto. También es bastante inteligente”, explica Dennis Hong.

“Este robot”, añade el ingeniero, “no usa inteligencia artificial para el control de la locomoción, Sin embargo, es inteligente en el sentido de que puede reconocer un buen plan y tomar decisiones de forma autónoma”. “El futuro”, concluye, “es que pueda ejecutar cualquier cosa que un humano pueda hacer”.

Asistente forense mostrado en Gitex.

Salud. El Gitex ha presentado propuestas diferentes de inteligencia artificial en este ámbito, desde las clásicas de gestión hospitalaria y sanitaria (las más abundantes) o de diagnóstico por imágenes hasta las más novedosas, como la mano robótica de bajo coste de Mand.ro o la bioimpresora 3D Invivo de Rokit Healthcare para la investigación en ingeniería de tejidos y medicina regenerativa. Una de las más singulares es la herramienta de “autopsia virtual” de Skia, que utiliza los datos de un paciente, recrea un modelo en tres dimensiones y lo compara con los datos de la misma persona ya fallecida para facilitar las causas de la muerte con la ayuda de la inteligencia artificial.

Los gigantes Lenovo e Intel han presentado su colaboración con Novo Genomics, una empresa saudí especializada en tratamientos médicos personalizados para enfermedades genéticas. El sistema Lenovo Goast puede procesar hasta 32 exomas (partes codificantes de los genes) en menos de tres horas.

Presentación del modelo de coche de carreras sin conductor A2rl de Aspire en Dubái.

Movilidad. Es otro de los grandes campos de la inteligencia artificial. Tom McCarthy, director ejecutivo de Aspire, ha presentado el A2rl, un modelo de fórmula 1 sin conductor gestionado por inteligencia artificial. McCarthy detalla que puede alcanzar los 300 kilómetros por hora y pesa 690 kilogramos. Pero, aunque participará en competiciones de vehículos autónomos, no es su meta final. “Estamos creando un ecosistema para atraer a la industria. El futuro es la movilidad”, afirma.

En el mismo campo se mueve también la motocicleta eléctrica emiratí Sulmi, dotada con inteligencia artificial y con un alcance de 300 kilómetros, velocidad máxima de 155 kilómetros por hora y recarga en 30 minutos.

Aeronave eléctrica de AutoFlight Europe.

Junto a varios modelos de coches eléctricos de las principales marcas, también se ha exhibido en Dubái la aeronave eléctrica de AutoFlight Europe, una compañía que ya realiza vuelos de prueba en Shanghai con el fin de obtener la certificación necesaria, que primero llegará para su versión de carga de mercancías y, en unos cuatro años, para el modelo capaz de llevar un piloto y entre dos y tres pasajeros. Una vez consigan el permiso chino, empezarán a solicitarlo en otros países. “En Europa esperamos que el año que viene podamos hacer algunos vuelos de demostración”, aclara Jocelyn Moreau, jefe de la empresa con sede en Alemania.

“El aparato puede despegar y aterrizar como un helicóptero y volar como un avión para alcanzar entre 200 y 250 kilómetros. El precio esperamos que se sitúe por debajo de los dos millones de euros”, precisa.

La asistente holográfica dotada con inteligencia artificial muestra a una visitante el dibujo que ha hecho de ella.

Servicios de atención. Es otra de las áreas en las que se ha introducido la inteligencia artificial para ofrecer servicios más cercanos. Es el caso de la asistente holográfica de aspecto humano dotada con inteligencia artificial y presentada por Purple Go en el pabellón de Dubái Digital City. Mohamed Akhdas explica que “es un dispositivo que ya se comercializa”. La asistente es capaz de identificar a una persona por su aspecto, llamar su atención y mantener una conversación con ella, incluso bromear. Una de las participantes en el evento fue apelada por el holograma a partir del color de su camisa e invitada a dejarse pintar. En unos minutos, presentó entre risas un dibujo de intencionado aspecto infantil, pero que reflejaba exactamente las líneas básicas de la imagen de la visitante y de su ropa. La extraordinaria capacidad de interacción puede utilizarse para cualquier servicio de asistencia con indicaciones precisas, para ventas o para gestiones.

Gestión. Es la oferta mayoritaria en las dos muestras. La inteligencia artificial se ha insertado en todos los ámbitos, desde el educativo y sanitario al de creación de aplicaciones propias o a la generación de ecosistemas informáticos singulares y personalizados. Ha estado presente en aspectos como la gestión del agua, las fuerzas armadas, la policía, la administración municipal, las ventas, la industria, la minería, las finanzas, la ciberseguridad... Cualquier proceso humano gana eficacia. Así lo defiende Hazem Nabih, director de tecnología para Oriente Próximo en Microsoft, quien asegura que “la productividad de cualquier empresa aumenta entre un 30% y un 50%” con la nueva tecnología. Uno de los mayores desafíos es el relacionado con la información, que puede verse sometida a niveles de manipulación inauditos en complejidad y alcance. Hazem Nabih aboga por los medios consolidados en el ámbito periodístico como garantía de fiabilidad y ética en el tratamiento de la información.

Una de las tendencias vistas en Dubái es la agrupación de servicios, como la que propone Chinthaka Athulanthmudali, representante de ITX360. Esta entidad, con sede en Sri Lanka, ofrece soluciones para “aumentar la productividad, optimizar los procesos e impulsar el crecimiento” en cualquier ámbito, desde los meramente informáticos a los de automatización y comunicación. Todo en uno.

Puedes seguir a EL PAÍS Tecnología en Facebook y X o apuntarte aquí para recibir nuestra newsletter semanal.

Seguir leyendo

]]>
<![CDATA[La ESA impulsa un servicio con una nave de carga que una la Tierra, la ISS y la Luna]]>https://elpais.com/ciencia/2023-11-06/la-esa-propone-crear-un-servicio-espacial-con-una-nave-de-carga-que-una-la-tierra-la-estacion-espacial-y-la-luna.htmlhttps://elpais.com/ciencia/2023-11-06/la-esa-propone-crear-un-servicio-espacial-con-una-nave-de-carga-que-una-la-tierra-la-estacion-espacial-y-la-luna.htmlMon, 06 Nov 2023 17:29:08 +0000El director general de la Agencia Espacial Europea (ESA, por sus siglas en inglés), el austriaco Josef Aschbacher, ha desafiado este lunes a los países miembros, cuyos ministros se reúnen en una cumbre en Sevilla, a desarrollar en los próximos cinco años una nave de carga con capacidad para transportar bienes al espacio y traer materiales del exterior. La ESA sería el operador de un servicio que contaría con financiación pública (75 millones de euros) y privada y que pretende ser, junto a la superación de los retrasos del cohete Ariane 6 y el desarrollo del Vega C, un lanzador de 35 metros y 210 toneladas, las puntas de lanza de un programa estratégico para garantizar la soberanía europea en la explotación y exploración del espacio. El horizonte en la próxima década es convertir Europa en el centro logístico de la Luna y la propuesta ha sido aceptada.

Aschbacher ha alertado de que Europa no puede perder más trenes: “La economía espacial está creciendo. No participar en esto sería, en mi opinión, estratégicamente muy difícil de justificar. Hace dos décadas, Europa no estaba lejos de Estados Unidos o Japón en patentes y capacidad intelectual. Hoy, las mayores empresas de tecnología no están en Europa. Algunas están en Estados Unidos y otras en China. Hemos perdido el tren. La tecnología cuántica es un ejemplo similar en el que ahora estamos tratando de ponernos al día”.

Con esta premisa, Aschbacher ha propuesto despertar a la industria europea “para ofrecer un servicio de carga espacial” con capacidad de llevar bienes y volver a la tierra. “Esto requiere capacidad de transporte, acoplamiento y reentrada, algo que Europa no posee hoy en día. El vehículo de servicio podría evolucionar más tarde y aspirar y servir a otros destinos”, ha explicado para referirse a la Estación Espacial Internacional (ISS, por sus siglas en inglés) y las futuras bases de la Luna como principales destinos del nuevo servicio.

El plan requiere de participación pública y privada y la ESA, como operador, seleccionaría las empresas adjudicatarias de la misión. Según el director general de la Agencia, la justificación se encuentra en que cada 50.000 millones de euros invertidos en exploración espacial se multiplican por tres.

El danés Andreas Mongensen, actual comandante de la ISS, ha intervenido por videoconferencia en la cumbre desde el espacio y ha apelado a la responsabilidad de Europa y Estados Unidos en el desarrollo de futuras misiones, entre las que ha mencionado Artemis, el programa para volver a llevar astronautas a la Luna.

“Una de las cosas de las que nos damos cuenta como astronautas tan pronto como nos lanzamos al espacio es que la Tierra es única. No hay absolutamente nada igual cerca de nosotros en esta inmensidad del espacio que nos rodea y, rápidamente, te das cuenta de que la tierra es nuestro único hogar y tenemos que protegerlo. Si la dañamos, si la hacemos inhabitable, no hay otra opción para nosotros”, ha afirmado para defender la exploración espacial y uno de los ejes de la misma: la sostenibilidad.

Mongensen también ha defendido el interés comercial por el espacio y ha destacado avances como la impresión en 3D con metales para la fabricación de componentes fuera de la Tierra. Del mismo modo, ha defendido el programa de desarrollar un carguero espacial. “Necesitamos enviar material al espacio y devolver productos a la Tierra. Es algo muy importante si queremos participar en esta nueva industria comercial que se está desarrollando”, ha argumentado.

El astronauta, en línea con el director de la ESA, ha destacado los avances de China y la India y ha retado a los países de la Agencia: “Tengo mucha curiosidad por saber cómo Europa responderá a esto”.

Aschbacher ha aprovechado la intervención de Mongensen para centrar las líneas de la cumbre de Sevilla: “El primero es el cambio climático, la sostenibilidad; el segundo es el transporte espacial; y el tercero, la exploración”. “Estos temas están interconectados más que nunca. El espacio es crucial para que podamos abordar los desafíos globales y fundamental para la soberanía de Europa”, ha insistido.

La ministra española de Ciencia e Innovación en funciones, Diana Morant, ha situado a España en la línea de garantizar la soberanía espacial europea y ha defendido la necesidad de mantener el compromiso financiero. “Invertir en el espacio es aumentar la autonomía estratégica de nuestro país y garantizar también nuestro estado del bienestar”. “La industria espacial es futuro y es estratégica; contribuye a transformar nuestra economía y a crear mejores oportunidades laborales”, ha concluido. El plan estratégico español (Perte aeroespacial) pretende movilizar 5.000 millones de euros. La Agencia Espacial Española, con sede en Sevilla, cuenta con un presupuesto que supera los 700 millones de euros para 2023. Los ministros han apoyado las líneas generales expresadas por Aschbacher, a pesar de las diferencias existentes entre Francia, Alemania e Italia sobre la política de lanzamientos y la financiación.

Francia, sede del fabricante Ariane Group, quiere fondos adicionales para ayudar a absorber los sobrecostos de un programa, estimados en 350 millones de euros, y el retraso de más de cuatro años que acumula. Aschbacher se ha comprometido a fijar antes de final de año una fecha de lanzamiento del Ariane 6.

Alemania, por su parte, es reticente a asumir la mayor carga financiera y apuesta por desarrollar programas propios. Mientras, Italia quiere garantizar el proyecto del lanzador Vega C, cuyo desarrollo beneficia directamente a este país.

Acuerdos

Las reticencias alemanas han sido vencidas por la filosofía del programa. Los 75 millones de euros se han concebido para “desbloquear” la financiación privada, que será la que aporte la mayoría del coste mediante concursos competitivos. “Empezaremos a trabajar mañana”, ha asegurado Aschbacher. En 2028 se prevé el primer lanzamiento.

Los 22 países miembros de la ESA han acordado también apoyar el Pacto Verde (Green Deal) para el desarrollo de una industria sostenible no solo en el lanzamiento de satélites sino también en la utilización de los mismos y de toda la tecnología espacial en la descarbonización del planeta.

Otro de los acuerdos ha sido “llevar el Ariane 6 a la plataforma de lanzamiento lo más rápido posible”. Las pruebas previas de los dos últimos meses han sido satisfactorias y se prevé un ensayo completo a finales de mes. El director de la ESA ha asegurado que tienen 15 lanzamientos garantizados.

Puedes seguir a EL PAÍS Tecnología en Facebook y X o apuntarte aquí para recibir nuestra newsletter semanal.

Seguir leyendo

]]>
<![CDATA[El cibercrimen alcanza niveles inéditos: 90 millones de ataques anuales que cuestan 10,5 billones de euros]]>https://elpais.com/tecnologia/2023-06-20/el-cibercrimen-alcanza-niveles-ineditos-90-millones-de-ataques-anuales-que-cuestan-105-trillones-de-euros.htmlhttps://elpais.com/tecnologia/2023-06-20/el-cibercrimen-alcanza-niveles-ineditos-90-millones-de-ataques-anuales-que-cuestan-105-trillones-de-euros.htmlTue, 20 Jun 2023 03:20:00 +0000Cada ordenador, móvil, rúter, vehículo o electrodoméstico conectado es un cofre del tesoro. “Todos tenemos algo que le interesa a un ciberdelincuente”, afirma Luis Hidalgo, del Instituto Nacional de Ciberseguridad (Incibe). Esta mina individual, empresarial e institucional de dimensiones gigantescas es el objetivo del pirateo informático, que han alcanzado niveles inéditos no solo por cantidad, sino también por sofisticación. “Cada día se registran 90 millones de ciberataques en el mundo [más de un millar por segundo] que suponen un coste de 10,5 billones de euros (trillones en el sistema contable de EEUU). Si el cibercrimen fuera un país, sería la tercera economía mundial solo por detrás de EE UU y China”, advierte María Jesús Almanzor, consejera delegada de Ciberseguridad y Nube en Telefónica Tech, durante el CSI Radar, un encuentro internacional organizado por Medina Media Events en Sevilla.

La rentabilidad del cibercrimen ha generado organizaciones cada vez más especializadas y eficaces. “Uno de cada cinco delitos son a través de la red”, advierte Juan Salom Clotet, coronel jefe de la Unidad de Coordinación de Ciberseguridad de la Guardia Civil, quien prevé que crezcan hasta alcanzar en dos años las 150.000 denuncias, el 25% de todos los delitos anuales. “El 84% de las estafas son por internet”, resalta.

Y “cada día los malos son más rápidos”, asegura Almanzor. Lo corrobora Isabel Tristán, directiva de Seguridad de IBM:. “Los cibercriminales han evolucionado y son capaces de desplegar ataques de ransomware [secuestro] en menos de tres días, mientras que el tiempo medio de las empresas para detectarlo es de siete meses y de dos meses para reaccionar”. La directiva de IBM confía en que la inteligencia artificial se sume a las defensas y permita reducir a menos de 30 minutos el tiempo de investigación medio, que ahora es de dos días.

Además de ágiles, los ciberataques son cada vez más innovadores: aumentan los vectores y las estrategias, especialmente las orientadas al error humano. Caixabank ha alertado recientemente de un SMS falso que se incorpora al historial de mensajes del banco como si fuera suyo y que culmina con la llamada de un supuesto gestor de la entidad.

Cualquier persona, en todos los niveles, es diana de los ataques. Sergio de los Santos, director del área de Innovación y Laboratorio de Telefónica Tech, recuerda casos como el del enlace enviado a un directivo de Uber, quien no pinchó en un enlace malicioso y recibió una llamada de alguien que se hizo pasar por responsable de seguridad para reclamarle que lo hiciera porque era necesario. La hoy presidenta del Banco Central Europeo, Christine Lagarde, recibió un SMS de la excanciller alemana Angela Merkel, a la que llamó para confirmar que era suyo y descubrió que era una puerta falsa. “Probablemente, para instalar un programa espía”, comenta, en alusión a ataques como los generados por el conocido Pegasus, que ha infectado móviles de Gobiernos, políticos, periodistas y empresarios internacionales.

“Hay que ser capaz de seguirlos. Es importante que los buenos seamos igual de rápidos e innovadores”, advierte Almanzor, quien calcula un coste medio por empresa afectada por un programa malicioso en 105.000 euros. Ese juego del gato y el ratón lo define Salom Clotet como “espiral de acción reacción”.

Pero la tarea no es fácil. Además de que los ataques se intensifican y se hacen más sofisticados, la directiva de Telefónica advierte de que no hay un “perímetro fijo”. “No sabemos dónde está la frontera. No son tangibles físicos sino digitales y van creciendo. Lo que tenemos no nos vale”, afirma en relación con la ineficacia de las soluciones individuales. Hidalgo lo corrobora: “Hemos avanzado muchísimo, pero no es suficiente.

También coincide Tristán, quien alerta de que “la ciberseguridad tradicional”, centrada en la disposición individual de tecnologías y sistemas, ha quedado obsoleta”. En este sentido, José Capote, responsable de Huawei en este ámbito, reconoce que, en la era del 5G, “las fronteras de la red están difuminadas y resultan más complejas de defender”.

Confianza cero no es un producto, es un enfoque. No confiar ni en el que está dentro

María Jesús Almanzor, consejera delegada de Ciberseguridad y Nube en Telefónica Tech

Almanzor aboga por la “confianza cero”. “No es un producto, es un enfoque. No confiar ni en el que está dentro”, asegura. Y lo afirma porque, como resalta Pedro Álamo, de la empresa de seguridad Proofpoint, “el 97% de las brechas de ataque son a través del correo electrónico y, sin embargo, solo se dedica el 10% del presupuesto a protegerlo”.

De esta forma, cada individuo es una puerta al cibercrimen. Según Álamo, “el 60% de los incidentes se debe a un acceso erróneo de algún empleado”. También coincide De los Santos, quien destaca que, de los 10 vectores de ataque más habituales, la gran mayoría depende del usuario.

Por eso defiende como medida fundamental la implicación de cada individuo en las amenazas, que afectarán a todos, tarde o temprano. Como afirma Almanzor, “solo hay dos tipos de empresas: las que han sufrido un ataque y las que no lo saben”. En este sentido, José Girón, inspector de la Policía Científica de Sevilla, señala “la soberbia” como una de las mayores dificultades de la prevención: “Quien crea que lo controla todo, no lo hace. Todo es tan cambiante que en minutos ya no sirve algo que está vigente en un momento determinado”.

Quien crea que lo controla todo, no lo hace. Todo es tan cambiante que en minutos ya no sirve algo que está vigente en un momento determinado

José Girón, inspector de la Policía Científica de Sevilla

Pero para De los Santos, “la concienciación sin formación es solo miedo”, por lo que apuesta por la educación de todas las partes, en todas las esferas. “El usuario necesita entender”, advierte. En este sentido, Hidalgo identifica un patrón común conocido como “clicador feliz” (happy clicker) y que se refiere al usuario que pincha de forma compulsiva en cada enlace que le llega. “Estos están, y mucho, en las capas altas de una organización”, advierte.

Coincide Almanzor en la falta de conocimiento en todos los niveles al destacar que “el 90% de las empresas en general no sabe su estado actual de seguridad”. “No tienen un plan de recuperación y actuación ante un ataque que va a pasar. No están preparadas”, advierte.

El escenario es muy parecido en todos los sectores, aunque el mayor tamaño y riesgo potencial de un ataque de denegación de servicios en entidades de abastecimiento de agua, sanidad o energéticas, por ejemplo, hace que el porcentaje de desprotección se reduzca, aunque no se elimine. Juan Miguel Pulpillo, coordinador del Centro de Ciberseguridad Industrial (CCI), explica que, en este sector, “aunque se hace cierta evaluación del riesgo y del incidente, entre el 40% y el 60% de las empresas no han definido medidas de seguridad”.

Almanzor apuesta por la resiliencia cibernética, que implica verificaciones permanentes, anticipar, prevenir, resistir y recuperar. Y por la colaboración, así como por la incorporación de socios tecnológicos especializados.

Pero esto no será suficiente porque la actividad delictiva continuará y crecerá, como advierte Salom Clotet. El pasado año, solo en España, se registraron 118.000 incidentes de ciberseguridad. Por lo tanto, queda un frente más que reside en la persecución de estos delitos. Gabriel González, fiscal delegado de Criminalidad Informática, resalta que “las innovaciones tecnológicas hacen que determinados delitos se recojan en el Código Penal a posteriori de la ocurrencia del hecho delictivo”. La legislación va por detrás de la realidad.

El coronel jefe de la Unidad de Coordinación de Ciberseguridad de la Guardia Civil señala que incluso los delitos que ya están recogidos se castigan con penas que no superan los dos años de prisión en su mayoría, salvo los de pederastia, que pueden suponer hasta cuatro años. Salom sugiere que se analice si las penas son proporcionales a los recursos que consumen y el daño que causan los delitos en la red.

Puedes escribir a rlimon@elpais.es y seguir a EL PAÍS Tecnología en Facebook y Twitter o apuntarte aquí para recibir nuestra newsletter semanal.

Seguir leyendo

]]>
<![CDATA[Un semiconductor cuántico hallado por casualidad bate el récord de velocidad: hasta un millón de veces más rápido]]>https://elpais.com/tecnologia/2023-10-26/un-semiconductor-cuantico-hallado-por-casualidad-bate-el-record-de-velocidad-hasta-un-millon-de-veces-mas-rapido.htmlhttps://elpais.com/tecnologia/2023-10-26/un-semiconductor-cuantico-hallado-por-casualidad-bate-el-record-de-velocidad-hasta-un-millon-de-veces-mas-rapido.htmlThu, 26 Oct 2023 18:00:33 +0000La física y la química han reescrito en el ámbito cuántico la fábula de la liebre y la tortuga más de 2.500 años después de que la creara Esopo. Al igual que el animal más lento venció a la veloz liebre en una carrera gracias a su constancia y estrategia, un grupo de investigación de la Universidad de Columbia (Nueva York-EE UU) ha hallado por casualidad un material superatómico, denominado Re₆Se₈Cl₂ (compuesto por renio, selenio y cloro), que ha servido como semiconductor para que los electrones hayan recorrido en los experimentos micrómetros en menos de un nanosegundo. “Teóricamente, tienen el potencial de alcanzar los femtosegundos, seis órdenes de magnitud [10⁶] más rápido que la velocidad alcanzable en la electrónica actual de gigahercios y a temperatura ambiente”, explican los investigadores.

El hallazgo, publicado en Science, ha sido casual y gracias al estudiante Jack Tulyag, que trabaja en su doctorado con el profesor de Química de Columbia Milan Delor. El primero llevó al laboratorio el Re₆Se₈Cl₂, creyéndolo un material sin alta capacidad de conducción, para probar los microscopios de superresolución, que pueden capturar partículas que se mueven a escalas ultrarrápidas y ultramicroscópicas. “Fue lo contrario de lo que esperábamos. En lugar del movimiento lento que presumíamos, vimos lo más rápido que hemos visto nunca”, afirma Delor.

Según el investigador, los semiconductores basados en silicio permiten un movimiento rápido de los electrones que no se preveía en el material superatómico. Pero el experimento permitió descubrir que, en el Re₆Se₈Cl₂, el excitón (un estado cuántico formado por electrones que han absorbido energía y el hueco generado cuando la partícula salta a un estado de energía más alto) se empareja con el fonón, una cuasipartícula portadora de energía y fundamental en la conductividad eléctrica. Esta asociación genera una nueva cuasipartícula, denominada excitón-polarón acústico, más pesada, pero que, de forma paradójica, ha resultado ser más veloz.

Gráfico representativo del comportamiento de las partículas en los distintos semiconductores que rememora la fábula de Esopo.

Delor recurre a la fábula de Esopo para explicarlo. En el silicio, los electrones pueden moverse a través de él muy rápidamente, pero como la liebre, que se entretiene confiada en su capacidad, “rebotan demasiado y no llegan muy lejos y muy rápido al final”. Por el contrario, en el material superatómico, los excitones se emparejan con los fonones para avanzar, como la tortuga, “lentamente, pero de forma constante,” en “un flujo balístico o libre de dispersión”. Este comportamiento es similar al de un fluido que discurriera sin fricción por un conducto y, por lo tanto, sin perder energía cinética.

“Al no verse obstaculizados en el camino, el excitón-polarón acústico se mueve en última instancia más rápido en el Re₆Se₈Cl₂ que los electrones en el silicio”, resume el investigador.

En los experimentos, los excitones-polarones acústicos alcanzaron en el Re₆Se₈Cl₂ varios micrómetros de la muestra en menos de un nanosegundo. Esta velocidad, teniendo en cuenta que pueden permanecer estables unos 11 nanosegundos y ser controlados con luz en vez de con electricidad, permite a los investigadores calcular que, teóricamente, “podrían cubrir más de 25 micrómetros en femtosegundos”.

Milan Delor, último de la derecha, y Jack Tulyag, antepenúltimo, en una imagen de los integrantes del laboratorio de la Universidad de Columbia.

Este potencial teórico significa una velocidad un millón de veces mayor que el electrón en el silicio, una proporción similar a la de la rapidez de la luz frente a la del sonido o frente a la de un avión a 900 kilómetros por hora. Los procesadores actuales de un ordenador son igualmente 10⁶ más rápidos que los de las computadoras de hace 20 años. “En términos de transporte de energía, Re₆Se₈Cl₂ es el mejor semiconductor que conocemos, al menos hasta ahora”, afirma Delor.

José Luis Salmerón, ajeno a la investigación y director del Data Science Lab de la Universidad Cunef, explica la importancia del hallazgo: “La transferencia de energía e información en semiconductores se ve limitada por la dispersión entre portadores electrónicos y fonones de la red, lo que resulta en pérdidas que restringen todas las tecnologías de semiconductores. Usando un semiconductor superatómico como el Re₆Se₈Cl₂, los autores demuestran la formación de excitones-polarones acústicos protegidos contra la dispersión de fonones”.

Salmerón, incluido por Elsevier y la Universidad de Stanford en la última lista de los científicos más citados, destaca que el nuevo semiconductor presenta una estructura organizada en capas unidas por las fuerzas de Van der Waals: “Son fuerzas atractivas que actúan entre átomos y moléculas debido a fluctuaciones temporales en las distribuciones de carga electrónica. Esta disposición peculiar le confiere propiedades semiconductoras, lo que significa que puede conducir electricidad de manera distinta a los conductores y aislantes convencionales. Lo que distingue al Re₆Se₈Cl₂ como un semiconductor superatómico es su capacidad para exhibir propiedades electrónicas excepcionales que trascienden las características individuales de sus átomos constituyentes”.

La aplicación de este potencial en procesadores comerciales es limitada porque el semiconductor descubierto incluye renio, un elemento químico raro en la Tierra que se usa en superaleaciones a base de níquel o, junto con molibdeno y tungsteno, en motores aeronáuticos, en catalizadores químicos y petroquímicos o para revestimientos resistentes a la corrosión.

El profesor de Química de la Universidad de Columbia Milan Delor.

No obstante, tras dos años de trabajo, el equipo de investigadores cree que se puede recurrir a la combinación de otros elementos para hallar semiconductores con capacidades similares a las del Re₆Se₈Cl₂. “Este es el único material en el que se ha observado un transporte balístico sostenido de excitones a temperatura ambiente. Pero ahora podemos empezar a predecir qué otros materiales podrían ser capaces de este comportamiento que simplemente no habíamos considerado antes. Hay toda una familia de materiales semiconductores superatómicos y otros con propiedades favorables para la formación de polarones acústicos”, asegura Delor.

Salmerón, investigador asociado en la Autónoma de Chile y científico principal de datos en Capgemini, se muestra de acuerdo: “Este descubrimiento ofrece nuevas perspectivas en la búsqueda de materiales con aplicaciones revolucionarias en la electrónica y la tecnología de semiconductores. Este descubrimiento no solo amplía nuestro entendimiento de los semiconductores superatómicos, sino que también abre nuevas posibilidades para el desarrollo de tecnologías más eficientes y avanzadas en el ámbito de la electrónica y la informática”.

“En el caso específico del Re₆Se₈Cl₂″, añade el investigador español, “se ha observado un transporte de polarón protegido, lo que significa que estas cuasipartículas pueden moverse de manera más eficiente y menos afectadas por las interacciones con las vibraciones de la red. Esto puede tener implicaciones significativas en términos de eficiencia y velocidad en aplicaciones de semiconductores y electrónica”.

“Se trata de un gran avance porque la capacidad de tener semiconductores balísticos a temperatura ambiente representa un paso significativo hacia la mejora de la tecnología electrónica en términos de eficiencia, velocidad y versatilidad de posibles aplicaciones”, concluye Salmerón.

Puedes seguir a EL PAÍS Tecnología en Facebook y X o apuntarte aquí para recibir nuestra newsletter semanal.

Seguir leyendo

]]>
Universidad de Columbia
<![CDATA[Un salvavidas para los alérgicos en el móvil]]>https://elpais.com/tecnologia/2023-10-23/un-salvavidas-para-los-alergicos-en-el-movil.htmlhttps://elpais.com/tecnologia/2023-10-23/un-salvavidas-para-los-alergicos-en-el-movil.htmlMon, 23 Oct 2023 03:20:00 +0000La prevalencia de la alergia alimentaria en la población pediátrica general se sitúa en torno al 3%. En los niños pequeños es mayor y puede alcanzar al 6% de los menores de 14 años, aunque disminuye con la edad, según investigaciones. Aunque más de un 15% de la población general cree ser alérgica a algún alimento, los estudios reducen el predominio real a entre el 1,5% y 2% de la población adulta. El mayor problema es la predominante incidencia en la población infantil, que no siempre es capaz de memorizar el protocolo de actuación o trasladarlo a los adultos encargados de reaccionar ante un episodio. De este problema, de una paciente, la pequeña Alba, y de la amistad de sus padres con su alergólogo ha surgido una novedosa aplicación gratuita para móviles, AllergApp, que “evita sustos y puede salvar vidas”, según sus creadores.

Antonio Letrán Camacho es alergólogo afincado en Cádiz desde hace 15 años y Alba, con alergia a los frutos secos, es su paciente. De la relación médica y de amistad con sus padres y de un episodio de intoxicación accidental —“un mal rato”, recuerda Letrán— surgió el análisis del problema, la dificultad de disponer de forma permanente de la información necesaria, y la solución.

José Carlos Toajas es el padre de Alba y director de proyectos en GECI, una empresa de soluciones aeronáuticas y proyectos de aeropuertos. El día del “mal rato” no tenía a mano la documentación que el facultativo les había facilitado para actuar en estos casos. Memorizar todos los pasos, la medicación y la posología es difícil y susceptible de errores. “Sabía que José Carlos [Toajas] había desarrollado una aplicación para otra cosa y le propuse: ‘Ahora que estamos todo el día con el móvil, ¿por qué no hacemos una que permita acceder al cuidador o al paciente a toda la información necesaria en dos o tres clics?”, explica el facultativo.

“Ese es el núcleo de la aplicación, ayudar en el momento agudo de las reacciones. Es un momento en el que estás asustado, preocupado. Además de conocer en qué fase está, hay que manejar una medicación concreta. Tener una guía que, en cuestión de segundos, te diga lo que tienes que hacer y te acompañe hasta que la reacción se dé por finalizada es muy importante”, añade.

Imágenes de la aplicación AllergApp, disponible de forma gratuita en las dos plataformas más utilizadas para móviles.

El uso es sencillo: el paciente, una vez diagnosticado, se da de alta en la aplicación y traslada datos personales necesarios, que incluyen talla, peso y edad, así como el tratamiento prescrito para combatir las reacciones. Incorpora un “botiquín” virtual con los fármacos necesarios y las dosis en función de las fases de la reacción porque, como indica Letrán, “cuanto antes se trate antes se controla”.

“La aplicación te acompaña porque, cuando se activa un episodio, te pregunta, con unos tiempos preestablecidos, por los síntomas en ese momento para recomendar una dosis extra o la visita a urgencias o, lo contrario, indicar una evolución favorable”, explica Letrán. Además, se puede incluir la ingesta del día para determinar posteriormente la causa del episodio una vez terminado. “Hay muchos pacientes a los que no veo hasta pasados 15 días y ya no se acuerdan”, justifica.

“Con esta aplicación llevo el tratamiento siempre conmigo. Es una tranquilidad. Además, me guía en cada paso a seguir en caso de una reacción. Muy útil”, reza el comentario de Laura Bohigas en una de las plataformas de descarga.

El conflicto de los datos

Una de las preocupaciones ha sido el tratamiento de los datos, lo que ha llevado a estos dos emprendedores a decidir que no haya almacenamiento externo de los mismos ni dependencia de servidores en la nube. Todo está en el móvil individual del usuario y, si es necesaria una información para un cuidador no habituado, se genera un fichero de imagen para su lectura por parte de esta persona solo con los protocolos necesarios. “Los datos de los niños son muy sensibles y muchos padres han alabado esta decisión”, explica el alergólogo.

Este es un problema generalizado en otras aplicaciones. En este sentido, Jens Foerderer, de la Universidad Técnica de Múnich, ajeno al desarrollo español, pero autor de un trabajo sobre este conflicto, afirma: “La mejor protección de datos para las aplicaciones de teléfonos inteligentes es un paso importante, especialmente para los niños. Las preguntas son: ¿cómo encontramos una salida a la trampa de que los consumidores están acostumbrados a usar aplicaciones de forma gratuita y las empresas basan sus modelos de negocio en la publicidad personalizada? ¿Y cómo podemos hacerlo sin reducir el número de aplicaciones innovadoras disponibles que pueden ser muy útiles para el consumidor?”.

La aplicación, además de gratuita, no cuenta por ahora con financiación ajena a la personal. La herramienta les ha supuesto a los creadores el desembolso de más de 10.000 euros de sus ahorros y solo han contado con una ayuda de la Sociedad Andaluza de Alergología e Inmunología Clínica (Alergosur) por su distinción como proyecto innovador. “Lo que quiero es que los pacientes la usen y ya veremos hasta dónde llega”, dice Letrán sin descartar la incorporación de algún patrocinio o su adopción por una entidad sanitaria.

Otros usos

Los desarrolladores creen que el modelo se puede aplicar en otras patologías como el asma o la diabetes. La actual versión también está pendiente de mejoras y de su traducción a otros idiomas. En Portugal ya han mostrado interés. “Está ahí en la recámara”, admite el facultativo.

Letrán quiere dejar claro que la aplicación no sustituye al médico, sino que es una ayuda para la actuación por parte del paciente o sus cuidadores: “Es una herramienta complementaria pensada para esos dos minutos en los que hay que tomar una decisión porque el niño está hinchando o le pica la boca. Me dice qué tengo que hacer y cómo. Pero hay que ir al médico”.

Hay algunas aplicaciones relacionadas con las alergias, pero para la reacción más grave (anafilaxia) o para disponer de información sobre alimentos o para el polen, como R-Alergo del Hospital de la Fe de Valencia, en colaboración con la Universidad Politécnica, que alerta de zonas a evitar. Pero de las características de AllergApp no figura ninguna.

También existen herramientas para otras patologías con resultados modestos. Thomas Davergne, de la Universidad de la Sorbona, ha analizado los efectos de las aplicaciones orientadas a rehabilitación y concluye: “Las utilizadas en siete estudios analizados eran en su mayoría comerciales y el 80% de los vídeos incluía contenido de un fisioterapeuta. La duración del uso de la aplicación osciló entre tres y 48 semanas. Las que proporcionan vídeos de ejercicios conducen a una mejoría, pero pequeña o moderada, en la función física, la confianza en el rendimiento del ejercicio, la calidad de vida y la adherencia (seguimiento). Sin embargo, el uso de aplicaciones no influyó en la tasa de eventos adversos experimentados por las personas que participaron en los ensayos”.

Las más populares están relacionadas con la alimentación y su aportación calórica. Filippo Bianchi, investigador de la Fundación Nesta y de la Universidad de Oxford, comenta tras el último Congreso Europeo sobre Obesidad que abordó la relación de estas aplicaciones con las de entrega a domicilio de comida: “Nuestros hallazgos sugieren que las intervenciones simples podrían ayudar a las personas a seleccionar opciones bajas en calorías en las aplicaciones de entrega sin la necesidad de eliminar opciones menos saludables. Esto no significa que siempre tengamos que cambiar la pizza por una ensalada verde, pero las iniciativas que facilitan pequeños cambios en lo que comemos podrían ayudar a reducir lentamente la obesidad “.

Puedes seguir a EL PAÍS Tecnología en Facebook y X o apuntarte aquí para recibir nuestra newsletter semanal.

Seguir leyendo

]]>
<![CDATA[La computación cuántica va al médico: los nuevos sistemas predicen patologías y mejoran la asistencia]]>https://elpais.com/tecnologia/2023-10-13/la-computacion-cuantica-va-al-medico-los-nuevos-sistemas-predicen-patologias-y-mejoran-la-asistencia.htmlhttps://elpais.com/tecnologia/2023-10-13/la-computacion-cuantica-va-al-medico-los-nuevos-sistemas-predicen-patologias-y-mejoran-la-asistencia.htmlFri, 13 Oct 2023 03:20:00 +0000Dice Sergio Boixo, del grupo de investigación Quantum Artificial Intelligence (IA) de Google, que la “computación cuántica está en la infancia”. La juventud de esta tecnología dificulta saber qué va a ser de mayor, pero eso no impide que empiece a despuntar en algunos aspectos. José Luis Salmerón, director del Data Science Lab de la Universidad Cunef, investigador asociado en la Autónoma de Chile y científico principal de datos en Capgemini, lo ha puesto a prueba con el equipo de cirugía tiroidea del Hospital de Sagunto (Valencia) y ha aplicado la computación cuántica a la predicción de secuelas posoperatorias. No es la primera vez. Esta tecnología se ha aplicado en gestión de asistencia sanitaria y la Universidad McGill (Canadá) ha puesto en marcha el proyecto Cardio-Twin para la detección de riesgos, a través de gemelos digitales, para mujeres. La computación cuántica va al médico para echar una mano.

“Los médicos saben estadística básica y disponen de un montón de datos. El equipo del Hospital de Sagunto quería anticiparse a la generación de hipocalcemia en los pacientes sometidos a una operación de tiroides. Les propuse una predicción de alta fiabilidad con un circuito cuántico variacional y alcanzamos una precisión del 92%, mucho más de lo que se consigue con técnicas convencionales”, comenta Salmerón, que ha publicado los resultados en Mathematics junto a la cirujana del centro valenciano Isabel Fernández-Palop y su equipo.

Salmerón, incluido por Elsevier y la Universidad de Stanford en la última lista de los científicos más citados, ha recurrido a un algoritmo basado en los nuevos sistemas de computación que toma como entradas los niveles hormonales para, a raíz de cálculos y puertas cuánticas, entrenar los resultados y que predigan si un paciente va a tener o no hipocalcemia, la complicación más frecuente tras una tiroidectomía por cáncer.

“El circuito no es físico, sino lógico, es decir, es un circuito en un ordenador. Hay veces que sí hacemos sensores cuánticos para determinadas cosas, pero en este caso era un circuito programado variacional”, explica Salmerón. El científico admite que la mayoría de la investigación cuántica se desarrolla en el campo de la física teórica. Pero a él le gusta “aterrizar las cosas” e intenta trabajar en aplicaciones prácticas.

La misma publicación recogió una investigación con la Universidad McGill para utilizar mapas cognitivos difusos (gráficos de relaciones causales para el estudio de efectos y alternativas) con un algoritmo de aprendizaje cuántico con el objetivo de ayudar en la detección temprana de pacientes con artritis reumatoide y clasificar la gravedad de la enfermedad en seis niveles diferentes. Los resultados mejoran y agilizan la atención sanitaria a los pacientes.

“El diagnóstico precoz de la artritis reumatoide es muy importante para prevenir la progresión de la enfermedad. Sin embargo, es una tarea complicada para los médicos generales por el amplio espectro de síntomas y los cambios progresivos de la enfermedad a lo largo del tiempo”, explica Salmerón en un trabajo publicado en Neurocomputing. Una prueba de estos modelos en el hospital universitario Shohada de Irán arrojó una precisión de la herramienta del 90%.

También se han llevado estos métodos a la planificación del tratamiento con radioterapia, donde los mapas cognitivos han demostrado su utilidad en la mejor toma de decisiones humanas.

“Estos sistemas permiten optimizar la prestación del servicio y mejorar los tratamientos. Si, en el caso de la hipocalcemia, el médico sabe el enfermo la va a padecer, puede empezar antes el tratamiento y minimizar el impacto. Y, además, ayuda también a la planificación de los servicios médicos. Sale ganando el paciente porque se tiene una detección temprana de cualquier enfermedad y salen ganando los centros clínicos porque son capaces de optimizar los recursos”, explica Salmerón.

No existe un modelo, por muy cuántico que sea, que se pueda utilizar en todas las patologías. “Cada una necesita un algoritmo o el proceso de datos puede variar. Cada problema necesita una solución concreta. Podemos usar un circuito cuántico, pero no será el mismo para todos los casos”, precisa.

Pero el campo es amplio. “Hay muchas aplicaciones potenciales que encajan con la computación cuántica porque son fundamentalmente de naturaleza cuántica. La interacción de las moléculas con entidades biológicas dentro del cuerpo es fundamentalmente mecánica cuántica y, en algunos casos, es muy difícil de modelar utilizando computadoras convencionales. Con las cuánticas, sin embargo, podremos simular el comportamiento cuántico subyacente con una precisión sin precedentes”, afirma Sam Genway, del Quantum Lab de Capgemini.

“Primera terapia cuántica”

Es el caso de una investigación publicada en Nature Nanotechnology que ha utilizado moléculas cargadas eléctricamente para desencadenar la autodestrucción de células cancerígenas en tumores cerebrales de difícil tratamiento y que podría aplicarse mediante pulverización o inyección durante la cirugía. Los investigadores creen que se trata de la “primera terapia cuántica”.

“Las células cancerosas sucumben a la intrincada danza de los electrones, orquestada por el encantador mundo de la biología cuántica. Al modular con precisión el túnel de electrones biológicos cuánticos, las ingeniosas nanopartículas crean una sinfonía de señales eléctricas que desencadenan el mecanismo natural de autodestrucción de las células cancerosas”, explica Frankie Rawson, investigador principal.

Ruman Rahman, coautor del estudio, añade: “Esta investigación muestra las posibilidades que presenta la terapia cuántica como una nueva tecnología para comunicarse con la biología. La fusión de la bioelectrónica cuántica y la medicina nos acerca un paso más a un nuevo paradigma de tratamiento”.

El potencial de esta incipiente tecnología lo han demostrado científicos de la Universidad de Sydney al utilizar, por primera vez, una computadora cuántica para diseñar y observar directamente un proceso crítico en reacciones químicas ralentizado 100.000 millones de veces. La autora principal de la investigación, publicada en Nature Chemistry. Vanessa Olaya Agudelo, explica: “Al comprender estos procesos básicos dentro y entre las moléculas que podemos abrir un nuevo mundo de posibilidades en la ciencia de los materiales, el diseño de medicamentos o la recolección de energía solar“.

Y también puede abrir nuevas puertas al estudio del genoma humano por su potencial capacidad de leer secuencias de ADN de forma rápida y fiable y aplicar los resultados en, por ejemplo, un tratamiento personalizado de quimioterapia. En un estudio publicado recientemente en Journal of Physical Chemistry B, los investigadores usaron computación cuántica para distinguir la adenosina de las otras tres moléculas de nucleótidos.

“Usando un circuito cuántico, mostramos cómo detectar un nucleótido a partir de solo los datos de medición de una sola molécula”, explica Masateru Taniguchi, autor principal del estudio. “Esta es la primera vez que una computadora cuántica se ha conectado a datos de medición para una sola molécula y demuestra la viabilidad de usar computadoras cuánticas en el análisis del genoma”.

Otro ejemplo de uso de esta nueva tecnología son los dispositivos que registran los impulsos nerviosos para controlar miembros artificiales. “Los sensores cuánticos que estamos creando en tecnología médica encajan a la perfección con nuestra filosofía: inventado para la vida”, afirma Stefan Hartung, presidente del consejo de administración de Bosch, una empresa también embarcada en este campo. Por primera vez, según esta compañía, está también al alcance la detección precoz de la fibrilación auricular sin contacto para evitar una de las causas de accidentes cerebrovasculares mortales, insuficiencia cardíaca y demencia.

Puedes seguir a EL PAÍS Tecnología en Facebook y X o apuntarte aquí para recibir nuestra newsletter semanal.

Seguir leyendo

]]>
<![CDATA[El cohete español ‘Miura 1’ se pierde en el Atlántico]]>https://elpais.com/ciencia/2023-10-10/el-cohete-espanol-miura-1-se-pierde-en-el-atlantico.htmlhttps://elpais.com/ciencia/2023-10-10/el-cohete-espanol-miura-1-se-pierde-en-el-atlantico.htmlTue, 10 Oct 2023 08:25:47 +0000El cohete Miura 1 se ha perdido en el Atlántico tras su vuelo del pasado sábado. Esta aeronave, creada para desarrollar el futuro lanzador de satélites de la empresa española PLD Space, se había concebido como recuperable para aplicar esta característica a los modelos definitivos con el fin de que sean reacondicionados y usados en nuevos lanzamientos. El primer prototipo estaba previsto que fuera rescatado del mar, llevado al puerto de Mazagón en Huelva, junto a la base del INTA (Instituto Nacional de Técnica Aeroespacial) de donde despegó, y trasladado luego a Teruel para realizar comprobaciones. Ya durante el vuelo de demostración, Roberto Palacios, ingeniero de sistemas de PLD Space, advirtió que esta fase no era el “foco”, que no era prioritaria. La compañía ha confirmado que se da por perdido: “No se ha podido completar esta histórica misión con la recuperación de Miura 1 del océano”.

El cohete disponía de sistemas de seguimiento de trayectoria y se conoce el área dónde ha caído, pero la compañía cree que se ha roto al impactar en el agua y se ha hundido. Al ser un prototipo que no se iba a reutilizar como lanzador, no compensa rastrear el fondo del mar para recuperar los restos, ya que los datos del vuelo son suficientes para el desarrollo del modelo definitivo. No obstante, esta circunstancia obliga a revisar y perfeccionar los sistemas de amerizaje para los siguientes modelos.

Esta eventualidad no ha impedido a la compañía considerar un éxito la misión en su mayor parte, en cuanto a “los objetivos primarios”. Según ha informado PLD Space, el lanzamiento ha conseguido probar “todas las tecnologías en vuelo”. “Los objetivos secundarios de la misión también fueron todos cubiertos, incluyendo la validación aerodinámica y el control del lanzador en la reentrada, así como la eyección de los paracaídas y el frenado final”, añade la empresa.

En este sentido, Raúl Torres, cofundador de la empresa, ha precisado: “El vehículo reentró con frenado aerodinámico excelente, eyectó el paracaídas de frenado y éste se abrió de forma nominal [a la altura necesaria para que funcione de forma segura y eficaz en función del peso de la carga, el tipo de paracaídas y las condiciones meteorológicas]. El Miura 1 amerizó dentro de la zona de seguridad prevista. Los barcos se encontraban fuera de la zona de exclusión [por razones obvias de seguridad] y tardaron algo más de una hora y media en llegar al área de amerizaje. Perdimos telemetría antes de este al comandar pasivación de vehículo [ordenar la eliminación de las fuentes de energía para reducir el riesgo de explosiones]. Por los datos de actitud [orientación de la aeronave respecto al horizonte], creemos que el impacto contra el agua fue lateral. Por una posible carga desfavorable, el vehículo tuvo una entrada de agua que lo hundió total o parcialmente. Las labores de recuperación fueron inviables”.

El cofundador de la empresa recuerda que recuperar un cohete tiene un 3% de éxito de media y “es igual o más complejo que lanzarlo”. “Es entendible que hacerlo a la primera no sea posible. Para nosotros era algo secundario y más pronto que tarde, lo lograremos”, concluye.

La misión tenía un condicionante ineludible: maximizar la seguridad. Y esto llevó a modificar algunos aspectos del vuelo inicialmente planeado. El apogeo, la máxima altura, se redujo a 46 kilómetros, 34 menos de los previstos. “Por seguridad, cambiamos la trayectoria para aumentar la porción de la misma sobre el Atlántico, estirándola y bajando el apogeo”, explica .

Trayectoria de vuelo prevista del 'Miura 1'.

La decisión supuso también reducir la carga aerodinámica y el tiempo de empuje del motor de 122 segundos a 103. “Teníamos incertidumbre con el empuje real. Nos venía bien hacer este cambio”, ha justificado el ingeniero.

Para Torres, esta modificación, además de aportar mayor seguridad, ha permitido demostrar que el Miura 1 es un “vehículo robusto” y con capacidad de “amoldarse a distintas trayectorias con éxito basándonos en la necesidad”. “Hemos cubierto todos los objetivos y hemos hecho historia. Estamos en disposición de asumir el desarrollo del Miura 5. Lo grande está de camino”, asegura Torres.

Este lanzador, que se desarrollará en los próximos dos años, tendrá 34,4 metros de longitud y capacidad para llevar cargas de hasta 540 kilos. Su “hermano pequeño”, como se le conoce en la compañía, tenía unas dimensiones de 12 metros de largo por 70 centímetros de diámetro. Transportó dos experimentos de PLD Space y 100 kilos de material del Centro Alemán de Tecnología Espacial Aplicada y Microgravedad (instituto ZARM de la Universidad de Bremen).

Estela del 'Miura 1' que muestra la trayectoria de su vuelo, el pasado sábado.

El coste del Miura 1 ha sido de 65 millones de euros. A partir de ahora, habrá que sumar otros 60 millones para el desarrollo completo del cohete comercial definitivo. La firma, que ha contado con un 30% de financiación pública, dispone de 150 trabajadores y compromisos económicos para llegar al modelo final. De hecho, ya están ampliando las instalaciones.

El presidente ejecutivo de PLD Space, Ezequiel Sánchez, calcula que necesitan llegar a 160 millones para alcanzar el punto de equilibrio. A partir de ahí, con los desarrollos tecnológicos aprendidos, el objetivo es programar 14 lanzamientos anuales a un coste medio para PLD Space por debajo de los cinco millones cada uno, con los que rentabilizar la empresa en un mercado emergente.

Puedes seguir a EL PAÍS Tecnología en Facebook y X o apuntarte aquí para recibir nuestra newsletter semanal.

Seguir leyendo

]]>
<![CDATA[Javier del Prado, vicepresidente de Qualcomm: “Por debajo del Wifi 6 es prácticamente imposible garantizar nada”]]>https://elpais.com/tecnologia/2023-10-09/javier-del-prado-vicepresidente-de-qualcomm-por-debajo-del-wifi-6-es-practicamente-imposible-garantizar-nada.htmlhttps://elpais.com/tecnologia/2023-10-09/javier-del-prado-vicepresidente-de-qualcomm-por-debajo-del-wifi-6-es-practicamente-imposible-garantizar-nada.htmlMon, 09 Oct 2023 06:03:21 +0000Javier del Prado, ingeniero de telecomunicaciones barcelonés de 46 años, dejó la Universidad Politécnica de Cataluña en 2001 para hacer un máster en Nueva York y ya no ha vuelto a asentarse en España, salvo para vacaciones. Ha pasado tanto tiempo en el extranjero que le cuesta un poco recuperar la fluidez en español. Ha trabajado como investigador para Philips en Estados Unidos, para NXP Semiconductors y para ST-Ericsson. Hace 10 años recaló en Qualcomm, la multinacional detrás de los procesadores de algunos de los móviles y dispositivos domésticos más vendidos. En esta compañía, de la que es uno de los vicepresidentes, ha trabajado para dotar a los móviles de las mejores capacidades de conectividad. Ahora anda embarcado en complementar este potencial con el nuevo estándar de wifi, la tecnología de conexión inalámbrica que se ha convertido en el hijo adoptivo tecnológico del 96% de los hogares.

Pregunta. Ha trabajado en dotar de capacidades de conectividad compatibles con Wifi 7 a los móviles y ahora Qualcomm se lanza a por el router del hogar. ¿Por qué?

R. Empezamos con los móviles y los routers en el mercado de retail [directo al consumidor] hace un año y ya hay bastantes diseños disponibles en el mercado que soportan Wifi 7. Pero faltaba el paso de la conexión entre la infraestructura y los servicios que ofrece el operador.

P. Las operadoras afirman que, con la guerra de precios, es difícil invertir para aprovechar los avances tecnológicos y satisfacer la creciente demanda de servicios y datos en el hogar.

R. El mismo desafío encontramos en los teléfonos móviles, cuyos precios no se incrementan cada año, pero la tecnología se hace más asequible a medida que es adoptada a gran escala. Lo que también intentamos como industria es encontrar nuevos caminos de monetizar el servicio, darle al operador la capacidad de obtener beneficios con ciertas aplicaciones y servicios que pueden ofrecer al usuario. Puede haber un cambio de modelo donde el usuario ya no solo compra el teléfono, sino también ciertos servicios, como un paquete propio de entretenimiento.

P. ¿El usuario demanda Wifi 7?

R. El usuario pide una experiencia. Ahora se da cuenta de que ciertas cosas que hace hoy funcionan más o menos, pero las aplicaciones cada vez demandan más y hay algunas que no funcionan bien. Por ejemplo, un juego del móvil compartido con el resto de la familia en una pantalla grande de la casa no funciona bien sin Wifi 7. Y como esta aplicación, hay muchas. Hay un auge de la experiencia multidispositivos, la capacidad de trabajar con cualquier aparato sin abandonar el mismo entorno. Esto genera una gran demanda al wifi porque exige muchas más conexiones entre el teléfono y el portátil, el ordenador de mesa o la tableta. Requiere mucho más ancho de ancho de banda y menor latencia [tiempo de respuesta]. Si se recurre a una reproducción sin cable de un ordenador en una pantalla grande, el ratón del ordenador no responde bien porque la latencia es muy alta. Con Wifi 7 solucionamos este problema y damos al usuario la capacidad de trabajar con reproductores externos como si estuvieran conectados por cable.

P. El usuario se gasta 1.000 euros en el móvil, pero no quiere gastarse 2,5 euros en una aplicación profesional. ¿Puede pasar con los routers de última generación, que el usuario no quiera invertir 500 o 600 euros en mejorar la conectividad?

R. Es una cuestión de entendimiento. El usuario tiene que entender qué beneficio le aportan las nuevas tecnologías a cambio de su dinero. Con las cámaras lo han entendido muy bien y saben que más megapíxeles suponen más calidad. Con las tecnologías inalámbricas es más complicado. Las operadoras tienen que explicar al usuario los beneficios que va a obtener.

El usuario es cada vez más consciente de las capacidades y limitaciones de su wifi y de sus equipos. Llega un momento en el que tiene que pensar si tiene los medios adecuados para sus necesidades”

P. ¿Por qué van tan rápido? ¿Por qué empresas de programación y procesadores, como Qualcomm, y de fabricación de dispositivos se han lanzado a por el Wifi 7 cuando la Wifi Alliance aún no lo ha certificado?

R. La certificación se espera a finales de este año, pero vamos tan rápido porque hay demanda. En Qualcomm vemos que la transición entre Wifi 6 y 7 va más rápido que del 5 al estándar posterior. Y nuestros clientes lo reclaman. Quieren ser los primeros en ofrecerlo, sobre todo en los productos más sofisticados, en los niveles premium. El Wifi 6 también se introdujo antes de su certificación.

P. Las tecnológicas han justificado los despidos masivos en que la vuelta a la normalidad tras la pandemia de la covid supuso un descenso en la demanda de equipos y servicios. ¿La tecnología wifi doméstica puede sufrir el mismo problema?

R. Independientemente del teletrabajo, la demanda de aplicaciones en streaming [retransmisión en línea de contenidos audiovisuales] o de servicios en la nube sigue creciendo. En Estados Unidos, muchos niños tienen cascos de realidad virtual, casi no se ve la televisión por antena y todos los servicios son en línea. La demanda de juego en línea es cada vez mayor. Las fotos se almacenan en la nube. El Bluetooth cada día pide más. Todo va por internet sin cables y requiere continuamente tráfico entre el ordenador personal o el móvil. Es cierto que, durante la pandemia, hubo una necesidad de actualizar equipos y mucha demanda de servicios de colaboración en línea. Ahora, la demanda de aplicaciones es otra.

P. ¿Los wifi por debajo de la sexta generación tienen riesgo de colapso ante esta mayor demanda?

R. Está claro que cada vez hay más dispositivos conectados a la red, la congestión aumenta y va a ser cada vez más difícil mantener la conexión. Los dispositivos que no sean compatibles con Wifi 6, como mínimo, y que disponen de menor capacidad, no tendrán el suficiente acceso a la red y será prácticamente imposible garantizar nada.

P. ¿El usuario debe pensar en cambiar ya de equipos?

R. Los teléfonos, desde el 2019, ya son compatibles con Wifi 6. Con el resto de dispositivos domésticos, se trabaja para simplificar la migración sin que el usuario se dé cuenta de la evolución y darles el servicio que demandan. El usuario es cada vez más consciente de las capacidades y limitaciones de su wifi y de sus equipos. Ya hay ciertas aplicaciones en el ordenador que tardan minutos en cargarse. Son conscientes de que su ancho de banda es insuficiente. Llega un momento en el que tiene que pensar si tiene los medios adecuados para sus necesidades.

Puedes seguir a EL PAÍS Tecnología en Facebook y Twitter o apuntarte aquí para recibir nuestra newsletter semanal.

Seguir leyendo

]]>
<![CDATA[El ‘Miura 1’ despega con éxito desde Huelva y mete a España en el exclusivo club de países con acceso al espacio]]>https://elpais.com/ciencia/2023-10-06/lanzamiento-del-miura-1.htmlhttps://elpais.com/ciencia/2023-10-06/lanzamiento-del-miura-1.htmlSat, 07 Oct 2023 06:10:40 +0000El cohete Miura 1, el prototipo del futuro lanzador de satélites de la empresa española PLD Space, ha conseguido con éxito tocar el espacio en una misión de prueba que ha consistido en situarse a una altura suborbital (46 kilómetros de altitud) y amerizar de nuevo sobre las aguas de Huelva, desde donde ha sido lanzado a las 2.20 de esta madrugada. Con esta misión, España se une al exclusivo club de 10 países con acceso al espacio y lo hace con una empresa privada y desde suelo continental. Su éxito permite el desarrollo del Miura 5, que ya contará con capacidad comercial para situar en la órbita terrestre dispositivos de hasta 540 kilogramos por viaje.

El cofundador de la compañía Raúl Torres ha afirmado, tras haberse completado con éxito el vuelo: “Hemos pasado por muchas dificultades. No solo técnicas sino, obviamente, también financieras y corporativas. A lo largo del tiempo hemos ido sumando gente que ha confiado en nosotros. Nuestro maravilloso equipo ha hecho realidad que hoy estemos aquí todos y cada uno de nosotros. Hemos aportado lo mejor de nosotros mismos para llegar hasta este punto”.

En el mismo sentido se ha pronunciado Ezequiel Sánchez, presidente ejecutivo de la compañía: “Hemos accedido al espacio con mucha más determinación que medios, pero lo hemos conseguido”. El directivo ha extendido el éxito de la misión a inversores, socios, proveedores, INTA (Instituto Nacional de Técnica Aeroespacial) y cuerpos y fuerzas de seguridad del Estado.

Tras dos intentos fallidos, el primero por la presencia de vientos en altura incompatibles con la misión y el segundo por un fallo en el último instante en el desenganche de los cables de carga de los sistemas de navegación, el Miura 1 ha despegado finalmente de la base del INTA entre los enclaves costeros onubenses de Mazagón y Matalascañas.


Esta vez, todos los dispositivos han respondido y el cohete, una versión a escala del que será el lanzador comercial previsto para dentro de dos años y en el que se aplicará todo lo aprendido con el demostrador tecnológico lanzado este sábado, ha despegado sin incidentes desde un acantilado de 25 metros de altura junto a la playa. Tras la ignición y la fase de despegue, el Miura 1 —bautizado así por la ganadería brava y como símbolo de marca española— ha iniciado las maniobras de giro para enfilar la trayectoria prevista.

Pasados unos minutos ha alcanzado la zona de microgravedad, situada a unos 30 kilómetros. El vuelo ha tenido una duración de 306 segundos en los que el Miura 1 ha alcanzado un apogeo de 46 kilómetros de altura. A partir de ese punto, el cohete ha comenzado la maniobra de descenso para abandonar el área de microgravedad y desplegar el paracaídas primario.

Con ayuda de los aerofrenos, reformados tras las pruebas realizadas en Teruel en septiembre, y el paracaídas principal, el Miura 1 ha amerizado en la costa onubense, donde se intentará recoger para ser llevado hasta el puerto de Mazagón y, posteriormente, trasladado a Teruel para analizar todos los resultados de la prueba. Roberto Palacios, ingeniero de sistemas de PLD Space, ha explicado que esta última fase “no es el foco”, en alusión a que no supone un elemento crítico del éxito de la misión.

“Hermano mayor”

Este primer cohete, de 12 metros de largo por 70 centímetros de diámetro que ha transportado dos experimentos de PLD Space y 100 kilos de material del Centro Alemán de Tecnología Espacial Aplicada y Microgravedad (instituto ZARM de la Universidad de Bremen), incluye todos los sistemas de vuelo que se incorporarán al Miura 5, conocido en PLD Space como “hermano mayor”. Este ya tendrá 34,4 metros de longitud y capacidad para llevar cargas de hasta media tonelada a la órbita terrestre.

Ezequiel Sánchez explica: “El Miura 1 es un demostrador tecnológico para aplicar toda la tecnología y la información en el próximo desarrollo. Es como si, en fórmula 1, en lugar de llegar directamente y montar una escudería, empiezas en fórmula 3, que te permite acceder con menos coste y de una forma más rápida a esas capacidades”.

En el mismo sentido, el responsable de Desarrollo de Negocio y cofundador de PLD Space, Raúl Verdú, añade: “Con la mirada puesta en el futuro más inmediato, el éxito de una prueba de vuelo de esta envergadura se mide por lo mucho que podamos aprender, un conocimiento que mejorará nuestra fiabilidad y probabilidad de éxito en el futuro. Desarrollamos el Miura 1 para acelerar el desarrollo tecnológico del Miura 5 y, tras el éxito de esta misión, el equipo podrá avanzar a gran velocidad hacia su primer vuelo, nuestro objetivo final”.

El 'Miura 1', tras el despegue en la madrugada de este sábado en Huelva.

Pero su lanzamiento va más allá de una mera demostración de que la tecnología desarrollada es viable. Con el despegue de este sábado, España se suma a los nueve países (Estados Unidos, Rusia, China, Japón, Francia, Italia, India, Corea del Sur y Nueva Zelanda) con acceso propio al espacio, sin depender de terceros, con desarrollos ejecutados por una empresa privada (30% de financiación pública) y desde suelo continental.

El principal hito es tecnológico: desarrollar “desde cero hasta los tornillos”, en palabras de Raúl Torres, director general y cofundador de PLD Space. El segundo, conseguirlo desde la España periférica: la compañía tiene sede en Elche (Alicante), el centro de pruebas en Teruel y la base aeroespacial en Huelva. El tercero es avanzar en la soberanía espacial europea.

En este sentido, la industria aeroespacial de la UE depende hasta ahora de países no europeos como Estados Unidos, donde se fabrican la mayoría de los elementos más costosos, según resalta Thales Alenia Space, una sociedad conjunta de Thales (67%) y Leonardo (33%) que lidera desde España el proyecto Scops (Scalable Controller for Power Sources). Stéphane Terranova, director general de Thales Alenia Space en España, explica sobre este programa: “Favorecerá el crecimiento del sector tanto dentro como fuera de nuestras fronteras y generará empleo de calidad y liderazgo tecnológico, multiplicando el retorno a los ciudadanos de la inversión proporcionada por esta iniciativa de Horizonte Europa”.

‘New Space’

Para el consorcio, Scops “posicionará a la industria europea en primera línea del desarrollo de soluciones eficientes en coste, acelerando su liderazgo en el Nuevo Espacio (New Space)”, como se denomina el mercado de pequeños satélites y las megaconstelaciones, clave del desarrollo espacial del siglo XXI.

Este es el sector en el que se posiciona PLD Space, que ha firmado un acuerdo con el operador europeo de transporte espacial Arianespace para desarrollar ofertas comerciales conjuntas y aumentar la capacidad de acceso al espacio a través de servicios de microlanzadores.

Ezequiel Sánchez afirma: “La colaboración con socios estratégicos como Arianespace es una prueba más de nuestro compromiso por aumentar la capacidad del acceso comercial al espacio en Europa en un momento en que es más necesario que nunca”. Pablo Gallego Sanmiguel, vicepresidente comercial de PLD Space, añade que “el despliegue de pequeñas constelaciones o la combinación de múltiples satélites de pequeño tamaño es altamente demandado”.

Otra prueba del compromiso con el desarrollo del cohete español es el acuerdo vinculante firmado con la Agencia Espacial Francesa (CNES) para la fase de desarrollo del lanzador Miura 5 desde la base ELM-Diamant, en el Centro Espacial de la Guayana.

Los integrantes de PLD Space celebraban el éxito de la misión en la base de lanzamiento del INTA, en la madrugada de este sábado.

El 77% de los satélites en desarrollo son de menos de media tonelada y se espera que más de 2.500 dispositivos de esta masa (inferiores a los 500 kilogramos) se lancen cada año de media durante la próxima década. En la actualidad estas operaciones son caras y lentas. Xavier Llairó, cofundador de Pangea Aerospace en Barcelona, explicaba a la revista Horizon: “Los satélites pequeños pueden viajar en grandes lanzaderas, pero esto plantea problemas, como el largo tiempo que transcurre hasta su puesta en órbita, ya que hay que reservar plaza con mucha antelación y esperar a que la lanzadera se dirija al sitio exacto en el que se quiere colocar los satélites. Las empresas propietarias de estos satélites necesitan acceder al espacio de forma personalizada”.

El coste del Miura 1 ha sido de 65 millones de euros a los que habrá que sumar otros 60 millones para el desarrollo completo del cohete comercial definitivo, según ha explicado el presidente ejecutivo de PLD Space. La firma cuenta con 140 trabajadores y compromisos económicos para llegar al modelo final. De hecho, ya están ampliando las instalaciones.

Sánchez calcula que necesitan llegar a 160 millones para alcanzar el punto de equilibrio. A partir de ahí, con los desarrollos tecnológicos aprendidos, el objetivo es programar 14 lanzamientos anuales a un coste medio para PLD Space por debajo de los cinco millones cada uno con los que rentabilizar la empresa en un mercado emergente.

Reacciones

El presidente del Gobierno en funciones, Pedro Sánchez, quien ha apoyado el proyecto con financiación pública y presencialmente, con una visita el pasado marzo a la base en Huelva, ha felicitado a la empresa en un mensaje en X.

El jefe del Ejecutivo ha celebrado este sábado el éxito en la misión del “primer cohete 100% tecnología española” y ha calificado el vuelo del Miura 1 como “un hito que posiciona la I+D+i de España a la vanguardia del transporte” y que “contribuirá a construir la mejor España”.

La ministra de Ciencia e Innovación en funciones, Diana Morant, ha agradecido en X a la compañía que haya “guiado nuestra mirada al cielo” y ha destacado que muchas de las soluciones del futuro llegarán desde el espacio porque por él “pasan las políticas de defensa, transporte, comunicaciones o la lucha contra el cambio climático”.

El presidente de la Junta de Andalucía, Juan Manuel Moreno, también ha mostrado en la misma red social su “orgullo” por la “histórica hazaña”: “El primer cohete español lanzado con éxito ha despegado desde El Arenosillo, en Huelva. Un orgullo que Andalucía haya sido escenario de la hazaña histórica del Miura 1. Misión cumplida”.

Agencias internacionales de noticias, como Reuters y AFP, se han hecho eco del lanzamiento destacando el carácter privado de la iniciativa y que el éxito incorpora a España a la carrera espacial.

Puedes seguir a MATERIA en Facebook, X e Instagram, o apuntarte aquí para recibir nuestra newsletter semanal.

Seguir leyendo

]]>
Manuel Mazzanti
<![CDATA[El wifi de la mayoría de los hogares se enfrenta al colapso por el aumento de dispositivos conectados y el tráfico de datos]]>https://elpais.com/tecnologia/2023-09-26/el-wifi-de-la-mayoria-de-hogares-se-enfrenta-al-colapso-por-el-aumento-de-dispositivos-conectados-y-el-trafico-de-datos.htmlhttps://elpais.com/tecnologia/2023-09-26/el-wifi-de-la-mayoria-de-hogares-se-enfrenta-al-colapso-por-el-aumento-de-dispositivos-conectados-y-el-trafico-de-datos.htmlTue, 26 Sep 2023 03:20:00 +0000Un aeropuerto que duplique su tráfico cada tres años y mantenga la torre de control de hace una década está abocado a colapsos, a tráfico lento y a la pérdida de vuelos. Algo similar sucede con internet en casa. La mayoría de los hogares han incorporado más de una decena de dispositivos conectados al wifi doméstico que reclaman más capacidad y velocidad para un uso adecuado, como es el caso de la retransmisión audiovisual de calidad o los videojuegos o el teletrabajo. Las operadoras responden ofreciendo ya conexiones de hasta un Gigabyte (Gb), lo que significa una capacidad de intercambio de algo más de mil millones (2³⁰) de bytes por segundo, pero este aumento de oferta y demanda de datos contrasta con la existencia mayoritaria de routers, los dispositivos que distribuyen el flujo de paquetes de información entre redes, con tecnología Wifi 5, incapaz de digerir eficazmente este tráfico. Cuando el Wifi 6 aún no ha penetrado más allá del 18% de casas, Qualcomm acaba de lanzar su nueva plataforma 10G Fiber Gateway, que adelanta el Wifi 7, todavía sin certificar, y multiplica la capacidad de conexión doméstica.

El 96,1% de los hogares de España dispone de acceso a banda ancha fija (83%) y móvil, según el Instituto Nacional de Estadística. Solo el 13,1% accede a Internet únicamente mediante conexión móvil, un porcentaje inferior en más de tres puntos en algunos países, según DSA. Este retrato estadístico, común en muchas regiones del planeta, convierte al router doméstico en un elemento fundamental que, sin embargo, no se actualiza de acuerdo con la nueva realidad.

Chris Szymanski, directivo de Broadcom, considera crítico el paso a las nuevas generaciones de interconexión inalámbrica. “Vemos la crisis de capacidad más inmediata en el wifi”, asegura al portal especializado RCR Wireless. La gran mayoría del tráfico, según explica, se gestiona a través del router, al que se conectan casi todos los dispositivos. “La capacidad del wifi debe ser el enfoque principal de la banda ancha inalámbrica para impulsar nuevas aplicaciones que operan en interiores”, concluye.

También lo advierte Diego Huertas, wireless global arquitect en Ikusi: “Las redes wifi actuales no tienen la capacidad suficiente para atender la gran demanda de conexiones y de aplicaciones. Es necesaria la migración a las últimas generaciones para evitar los problemas de congestión tan habituales y las quejas por parte de los usuarios”.

“Este año”, según Claus Hetting, presidente de Wi-Fi Now, “habrá 19.500 millones de dispositivos con conexiones inalámbricas en funcionamiento en el mundo”, con un crecimiento anual del 20%. Estos datos hacen inevitable la transición hacia Wifi 6E (evolución del 6 de hace cuatro años) y 7. “Está en marcha”, asegura la Wi-Fi Alliance, la entidad de certificación de esta tecnología que prevé aprobar la séptima generación el próximo año.

Algunas empresas no van a esperar. Los proveedores de routers TP Link o Eero han adoptado la plataforma compatible con Wifi 7 presentada este mes por la multinacional Qualcomm en San Diego (EE UU). Intel también ha entrado en este mercado. El precio medio en Estados Unidos de un router habilitado para la nueva conexión inalámbrica ronda los 550 euros y se prevé una oferta inminente de algunos de estos dispositivos en Europa.

'Routers' y dispositivos compatibles con el Wifi 7 que ya están en el mercado y mostrados en la sede de Qualcomm en San Diego.

La tecnología está disponible, pero queda que las operadoras la ofrezcan, el usuario la demande y los países pongan a disposición el espectro necesario. En este sentido, Diego Huertas, experto de la empresa de servicios tecnológicos Ikusi, explica: “Con la evolución a Wifi 7 se habilitan nuevas funcionalidades y una de ellas es poder hacer uso de la banda de 6GHz, que se utiliza para transmisión de la información. Esto abre nuevas posibilidades en velocidad de acceso y ayudará a resolver el problema de congestión. Sin embargo, en España únicamente se han habilitado la mitad de los canales de esta banda, dejando al país en desventaja para disponer de mayores capacidades”.

Otros países van por delante. Gary Koerper, vicepresidente de la compañía de telecomunicaciones norteamericana Charter, afirma que ofrecerán la nueva generación “como estándar”, como patrón de referencia para todos los usuarios. La británica EE, parte del grupo BT, se ha sumado. “El cliente construye su vida sobre la conectividad”, justifica Danny Marshall, directivo de esta última compañía.

Rahul Patel, vicepresidente de Qualcomm, asegura que la nueva generación es la más importante de todas ante la “congestión que sufren tanto los espacios públicos como los hogares”, donde calcula que habrá más de 20 dispositivos conectados y se registrará en cinco años un tráfico de hasta 10Gb en el 59% de las casas que generará “una situación crítica”.

Un rendimiento mediocre socava la confianza del cliente en el operador, lo que puede determinar su abandono. Por lo tanto, los operadores de banda ancha están bajo una inmensa presión para ofrecer calidad de servicios wifi a sus clientes

Adaptive Spectrum and Signal Alignment (ASSAI)

Un informe de la consultora ABI Research, que remite a un estudio de Adaptive Spectrum and Signal Alignment (ASSAI), también advierte de la limitada la capacidad de las bandas de los estándares de wifi más comunes ante el aumento del tráfico. Según este estudio, la permanencia de un Wifi 5 tiene “el desafortunado efecto en cadena de degradar la calidad de servicio por el aumento de congestión, latencia e interferencias”. “Un rendimiento mediocre socava la confianza del cliente en el operador, lo que puede determinar su abandono. Por lo tanto, los operadores de banda ancha están bajo una inmensa presión para ofrecer calidad de servicios wifi a sus clientes”, advierte el informe.

Guerra de precios

Pero el panorama es difícil de gestionar. La guerra de precios limita la capacidad de las empresas de telecomunicaciones para invertir en infraestructura, servicios y equipos. “No culpo a las operadoras porque creo que no saben cómo hacer dinero. Y si esa situación continua, no serán capaces de avanzar hacia la nueva tecnología, que exige una inversión”, admite Ganesh Swaminathan, vicepresidente y director general de Qualcomm.

Huertas, de Ikusi, también observa reticencias de las empresas para realizar nuevas inversiones en tecnologías de conexión inalámbricas, pero advierte: “No hay un mejor momento que ahora”.

No culpo a las operadoras porque creo que no saben cómo hacer dinero. Y si esa situación continua, no serán capaces de avanzar hacia la nueva tecnología, que exige una inversión

Ganesh Swaminathan, vicepresidente y director general de Qualcomm

Swaminathan considera necesario un cambio de estrategia y recurre como ejemplo a la situación española: “En países como España, creo que los servicios pueden ayudar a modificar las suscripciones. Ver una película de alta definición con el mejor sonido con un Wifi 5 no es divertido. Telefónica puede decir: ‘No es mi problema, si pagas 33 euros, es lo que tienes’. Pero si Telefónica tiene la habilidad de decirle al cliente que si quiere la mejor experiencia le costará cinco euros más porque le va a facilitar un paquete de experiencia en streaming [en línea], puede cambiar el modelo”.

El directivo también apunta a la demanda del cliente como clave y lo expresa con una analogía. “El usuario puede conducir en autopistas de forma gratuita a partir de sus impuestos. Pero si desea usar una vía rápida, puede pagar un peaje. Son unos pocos euros, pero lo necesita porque la carretera gratuita está congestionada. En los datos pasa lo mismo. La carretera desde la nube hasta el hogar y dentro de la casa está congestionada y se necesitan ciertas carreteras de peaje para dar nuevos servicios. Tal vez no la usen algunas personas que no quieran pagar un extra, pero otras sí y la operadora obtendrá más ingresos de los clientes premium”.

Alex Roytblat, vicepresidente de Wi-Fi Alliance, defiende la implementación de la mayor velocidad para alcanzar los objetivos de digitalización de Europa, pero añade un elemento a considerar ante este planteamiento: el momento de alta inflación. El cliente quiere y necesita más, pero es reacio a pagar un sobrecoste por la conexión y para renovar los equipos que le permitan aprovechar las nuevas capacidades.

En este sentido, Roytblat detalla que el 75% de los encuestados en un Eurobarómetro de la Comisión Europea afirma que una conexión de alta velocidad más asequible facilitaría significativamente el uso de las tecnologías digitales. “A partir de estos resultados, podemos concluir que la asequibilidad será un factor clave para determinar si Europa logra sus objetivos digitales”, advierte.

La nueva carretera del Wifi 7 ofrece 36Gbps, aunque tiene la posibilidad de llegar a 46,4, muy por encima de la velocidad de datos máxima de la sexta generación (9.6 Gbps). El Multi-Link Operation (MLO) facilita descargas de archivos grandes, transmisión de video y realidad virtual, así como una latencia menor al alternar rápidamente las bandas disponibles. De esta forma, Wifi 7 promete un rendimiento mejorado, una capacidad ampliada, una mayor confiabilidad y resiliencia contra las interferencias.

La plataforma 10G Fiber Gateway de Qualcomm ha sido presentada en San Diego durante un acto con prensa internacional al que fue invitado EL PAÍS.

Puedes seguir a EL PAÍS Tecnología en Facebook y Twitter o apuntarte aquí para recibir nuestra newsletter semanal.

Seguir leyendo

]]>
trumzz
<![CDATA[La tecnología genera agua en el Valle de la Muerte o la extrae del aire, pero se enfrenta a la maldición de Jevons]]>https://elpais.com/tecnologia/2023-09-25/la-tecnologia-genera-agua-en-el-valle-de-la-muerte-o-la-extrae-del-aire-pero-se-enfrenta-a-la-maldicion-de-jevons.htmlhttps://elpais.com/tecnologia/2023-09-25/la-tecnologia-genera-agua-en-el-valle-de-la-muerte-o-la-extrae-del-aire-pero-se-enfrenta-a-la-maldicion-de-jevons.htmlMon, 25 Sep 2023 03:20:00 +0000Según la ONU, en la Tierra hay agua para todos y, sin embargo, la escasez afecta a 2.000 millones de personas que carecen físicamente de ella o de la infraestructura necesaria para aprovecharla. Las soluciones son tecnológicas: utilizar el agua del mar y subterránea, reutilizar las residuales, mejorar la eficiencia en la distribución y consumo y condensar la presente en la atmósfera. Las últimas investigaciones publicadas por Nature este mes de agosto muestran que se ha conseguido generar agua en el Valle de la Muerte, el enclave del desierto californiano de Mojave considerado uno de los lugares más calurosos del mundo, o captarla de la niebla y purificarla al mismo tiempo o emular a arañas y escarabajos para recolectarla. Pero estos avances se enfrentan a una maldición planteada por William Stanley Jevons hace dos siglos: a medida que mejora la eficiencia en el uso de un recurso, aumenta su consumo en vez de reducirse.

La demanda de agua mundial no para de crecer. A lo largo del último siglo, de acuerdo con Naciones Unidas, el consumo creció a un ritmo dos veces superior al de la tasa de crecimiento de la población y cada vez es mayor el número de regiones con niveles crónicos de carencia. Jesús M. Paniagua, autor de Agua. Historia, tecnología y futuro (Guadalmazán, 2023), coincide con la ONU en que “hay suficiente agua en el planeta para abastecer a los casi 8.000 millones de personas que lo habitamos. Pero está distribuida de forma irregular, se desperdicia, está contaminada y se gestiona de forma insostenible”, advierte.

Cristina Monge Lasierra, politóloga de la Universidad de Zaragoza, recuerda en un libro sobre abastecimiento urbano, publicado por el Ayuntamiento de Cádiz y los operadores públicos de Aeopas, la advertencia del ex secretario de la ONU Ban Ki-moon: “La batalla por la sostenibilidad se librará en las ciudades”. Será en ellas donde se concentrará el 75% de la población y entre el 80% y el 85% de la riqueza. “Lo que ocurra en las urbes y cómo se relacionan con el resto del territorio será clave”, destaca Monge.

Aunque el mayor consumo de agua se produce en la agricultura y ganadería (80%, según la OCDE), su uso responde a la demanda de alimento de las urbes, donde reside la mayoría de la población. El resto de los grandes consumos son industriales y urbanos. “Los episodios extremos como los que vive España expresan la urgencia de integrar el agua como elemento imprescindible para repensar las ciudades”, advierte Luis Babiano, gerente de Aeopas (Asociación Española de Operadores Públicos de Abastecimiento y Saneamiento).

La tecnología ha permitido ganar en eficiencia en la distribución de agua, pero aún hay mucho camino por recorrer. Según Francisco Lombardo, presidente del Foro de la Economía del Agua, “en España se pierde actualmente más de una cuarta parte del agua que distribuye a través de la red como consecuencia de la falta de inversiones”. Lombardo apuesta por “renovar las infraestructuras hídricas y la digitalización para tener un control mucho más exhaustivo de las fugas y pérdidas de agua”.

Paniagua coincide en la existencia de “sistemas muy deficientes que están perdiendo agua” y pone como ejemplo la capital uruguaya: “Montevideo ha sufrido un problema de abastecimiento después de tres años de sequía. Su red tiene unas pérdidas del 50% y eso quiere decir que, de cada 100 litros que entran desde los depósitos, 50 se pierden”.

Para la obtención de recursos confía en las reservas subterráneas, en un consumo más consciente, en la reutilización de aguas residuales y en la desalación, sistemas que espera que se vayan abaratando y descarbonizando con el auge de las energías renovables.

La desalinización de agua de mar requiere un alto consumo energético y genera residuos como la salmuera. Aprovechar el agua atmosférica, particularmente en regiones con una humedad inferior al 70%, también requiere una cantidad sustancial de energía que convierte esta solución en ineficaz.

Del desierto a las arañas

Un trabajo publicado en Nature Water y firmado por investigadores de las universidades de Postech y Berkeley ha optimizado el proceso para lograr generar agua de la atmósfera en el desierto del Valle de la Muerte, en Estados Unidos, con temperaturas de hasta 57 grados y humedad relativa inferior al 7%.

“Hemos corroborado el potencial de la tecnología para abordar los crecientes desafíos de la escasez de agua, agravados aún más por los problemas ambientales. Esta tecnología proporciona un recurso hídrico seguro e independiente de las condiciones geográficas o climáticas”, resalta Woochul Song, investigador de Postech.

Generación de agua en el Valle de la Muerte conseguida tras una investigación publicada en 'Nature'.

Otro de los inconvenientes de la utilización del agua atmosférica, como la procedente de la niebla, es la contaminación impregnada en esta. Investigadores de la Escuela Politécnica Federal de Zúrich (ETH) han desarrollado un método que recoge el agua de la niebla y, simultáneamente, la purifica a partir de una malla metálica recubierta con una mezcla de polímeros y dióxido de titanio, que actúa como un catalizador químico.

“Nuestro sistema se puede usar en áreas con contaminación atmosférica, como centros urbanos densamente poblados”, explica Ritwick Ghosh, científico del Instituto Max Planck, que ha colaborado en el trabajo publicado en Nature Sustainability.

El profesor de la Universidad de Waterloo Michael Tam ha desarrollado esponjas que capturan continuamente la humedad de su entorno imitando a las arañas y las estrategias de otros insectos. “Una tela de araña es una maravilla de la ingeniería y captura eficientemente el agua. La araña no necesita ir al río a beber, ya que atrapa la humedad del aire”. Su trabajo ha sido publicado en Nature Water.

Paniagua confía en las soluciones tecnológicas. “Si miras la historia, la tecnología nos ha ido sacando de problemas”, comenta. En este sentido, su obra recuerda cómo se ha generalizado la digitalización de los campos de cultivo, las estaciones meteorológicas en parcela, los sensores de humedad, los sistemas de monitorización de caudal y presión en las redes de riego o los drones de vigilancia y seguimiento que optimizan el uso de los recursos.

Pero el autor recuerda que uno de los problemas de la solución tecnológica ya lo anticipó el economista británico William Stanley Jevons hace dos siglos. Jevons observó que las máquinas de vapor más eficientes no implicaban un descenso en el consumo de carbón, sino todo lo contrario: la eficiencia multiplicó el número de máquinas. Es una paradoja que explica el aumento del tráfico cuando se amplía la red de carreteras. “Puede ocurrir”, admite Paniagua. “No digo que vaya a suceder de manera generalizada, pero es cierto que, cuando tienes más capacidad de regadío, esta superficie aumenta. Tengo un amigo que afirma que, si consiguiéramos la fusión nuclear para generar mucha energía muy barata, seríamos capaces de cualquier barbaridad. De todos modos, eso no nos debe frenar para mejorar la eficiencia”.

El otro gran inconveniente de la solución tecnológica al problema del agua es la desproporción del crecimiento de la demanda. En este sentido, Paniagua pone el foco en África, donde hay menor acceso a recursos, saneamiento y energía, pese a la previsión de explosión demográfica. “Hay que enfocarse en inversiones y mejoras para garantizar el abastecimiento, la depuración y el saneamiento. Los megatrasvases no son viables por miles de razones, desde las técnicas a las políticas. Es un problema serio”.

En marzo de 2023, Unicef publicó un informe sobre la difícil situación de aproximadamente 190 millones de niños en África que sufren de falta de agua potable, lo que resulta en la trágica muerte diaria de 1.000 niños menores de cinco años.

El ejemplo de una fuente

Una simple fuente de agua potable urbana puede ser un ejemplo de cómo la gestión de la misma es más compleja de lo que puede parecer a simple vista. En este sentido, Luis Babiano destaca cómo la incorporación de nuevas infraestructuras para llevar este servicio público a cada 1.000 habitantes de Cádiz llevó a detectar un error en el planteamiento tradicional de estas instalaciones. “Los criterios para su ubicación son formales, de accesibilidad o de coste. Pero no se han pensado como herramientas para la construcción de una ciudad amable”, comenta.

El diseño de la red gaditana, reflejada en el libro Fuentes públicas de agua potable, intentó partir desde cero, analizando los principales recorridos de los vecinos, tanto en sus jornadas de trabajo como en sus momentos de ocio. También en su movilidad, si se desplazaban a pie, en bici, en transporte público o en vehículos propios. Incluso se tuvo en cuenta si había presencia de mascotas.

Puedes seguir a EL PAÍS Tecnología en Facebook y Twitter o apuntarte aquí para recibir nuestra newsletter semanal.

Seguir leyendo

]]>
Apu Gomes
<![CDATA[Premio Ig Nobel para un estudio español sobre la marejadilla causada por el frenesí sexual de las anchoas]]>https://elpais.com/ciencia/2023-09-14/premio-ig-nobel-para-un-estudio-espanol-sobre-la-marejadilla-que-causa-el-frenesi-sexual-de-las-anchoas.htmlhttps://elpais.com/ciencia/2023-09-14/premio-ig-nobel-para-un-estudio-espanol-sobre-la-marejadilla-que-causa-el-frenesi-sexual-de-las-anchoas.htmlThu, 14 Sep 2023 22:01:00 +0000El ano es también un oscuro objeto de deseo para la ciencia. Al menos, así lo demuestran los consecutivos premios Ig Nobel alcanzados por dispositivos y estudios relacionados con esta parte del cuerpo. En esta edición, la 33ª, uno de los galardones a las investigaciones más bizarras se lo ha llevado el denominado “Retrete de Stanford”, un inodoro que graba, monitoriza y analiza en tiempo real las deposiciones en uno de los lugares donde la mayoría de los humanos busca intimidad. España ha vuelto a sumarse este año a la lista de premiados con un estudio sobre las turbulencias que originan las relaciones sexuales de las anchoas, que dejan la escena de la piscina de Showgirls (Paul Verhoeven, 1995) a la altura del calentamiento de un suplente; y con otro sobre las habilidades para hablar “la vesre”, es decir, al revés. Dos de las premiadas se muestran orgullosas. “Es la investigación más sexy de toda mi vida”, afirma Beatriz Mouriño-Carballido, científica jefa de la campaña que asistió a la orgía marítima.

Los Ig Nobel —juego de palabras que, pronunciadas conjuntamente, se podría traducir por innoble— los concede Annals of Improbable Research (Anales de investigaciones improbables) a estudios publicados y revisados por revistas de prestigio. Se suelen celebrar en la Universidad de Harvard con la presencia de verdaderos premios Nobel, pero este año, por cuarta vez, la ceremonia ha vuelto a ser virtual. Estos son los galardonados, que recibirán un recortable y un billete de 10 trillones de dólares de Zimbabue, una moneda desaparecida en 2015 y cuyo total supondría hoy menos de 30 céntimos:

Una cámara para el trasero. Si no fuera suficiente con tener cámaras grabando cada segundo de nuestras vidas, un equipo de Corea del Sur y Estados unidos propone ahora el “Retrete de Stanford”, un inodoro que aún no ha sido probado por influencers. El dispositivo en cuestión examina la micción y la orina, obtiene imágenes del ano y sus productos y analiza las deposiciones. Según el estudio, “el inodoro inteligente es autónomo y aprovecha los sensores de presión y movimiento para analizar el uroflujo, calcular el caudal y el volumen, así como para clasificar las heces con un rendimiento comparable al del personal médico capacitado”. Por si fuera poco, los datos se almacenan en la nube. Todo un potencial botín merecido para los piratas informáticos.

Retrete de Stanford que graba y analiza las deposiciones premiado en los Ig Nobel.

El frenesí sexual de las anchoas mueve el mar. España ha vuelto a los Ig Nobel y por partida doble. Uno de los trabajos fue producto de la observación no intencionada de una orgía marina de anchoas, capaz de generar una pequeña marejadilla.

Beatriz Mouriño-Carballido, jefa de la expedición de involuntarios mirones, está encantada con el premio. “Esta es la investigación más sexy de mi carrera”, afirma divertida esta bióloga nacida en Ferrol hace 48 años. Lo publicó una revista filial de Nature y el hallazgo aporta respuestas a la influencia de los seres vivos en los movimientos del mar, una eterna cuestión en oceanografía. “Creí que iba a ser portada en los medios y no, nada de nada, cri, cri, cri”, bromea para explicar cómo este Ig Nobel le permite atraer la atención hacia un trabajo muy serio y que sí captó el interés de medios anglosajones.

Para el estudio original, ella insistió en seguir una estrategia del pescador y fondear tres semanas a la espera de resultados. “Buscábamos cómo las condiciones del medio afectan al crecimiento de las algas microscópicas, algunas de las cuales producen toxinas”, recuerda. “Por la noche veíamos niveles de turbulencia y de mezcla muy altos, a la misma hora más o menos y en el mismo intervalo. Las ecosondas mostraban que había una gran actividad de peces. Parecía un festín de jureles, calamares, gaviotas…”, explica.

Beatriz Mouriño-Carballido, en la ría de Vigo.

Tras una primera identificación errónea del origen de los datos, analizaron si los registros de las ecosondas era compatibles con la actividad sexual de las anchoas. Y lo eran. Los datos se confirmaron con los restos biológicos recogidos con redes, donde había muchos huevos de estos deliciosos peces. “La historia comenzó a cuadrar”, comenta.

Más allá del morbo por el origen del movimiento, la investigación es fundamental para completar los balances de energía en el océano, que se suelen atribuir a los vientos y mareas, principalmente. “Las últimas investigaciones parecían descartar la relevancia de la turbulencia asociada al movimiento de los organismos, que forman unos remolinos muy pequeñitos. Nosotros logramos demostrar que los organismos, en este caso las anchoas, en ese frenesí sexual, agitan y generan turbulencias efectivas para mezclar aguas con propiedades diferentes”.

Blaha datirevni (Habla invertida) El equipo del que forma parte la hispanoargentina María José Torres-Prioris también está encantado con la distinción de su estudio sobre los especialistas en hablar al revés, invirtiendo sonidos. La investigadora acepta con agrado la designación y cree que, lejos de desacreditarla, le aporta una gran oportunidad de difusión. “Aún no sé qué voy a hacer con el dinero”, ironiza ante el premio valorado en 30 céntimos. El trabajo tiene implicaciones en la investigación neurolingüística, un aspecto poco estudiado, pese a que la afasia degenerativa que sufre Bruce Willis ha puesto algunos focos en estos problemas.

Malagueña de adopción y nacida en Tucumán (Argentina) hace 36 años, la investigadora dice que recibió “la noticia con una mezcla de sorpresa y diversión”. “Al fin y al cabo, este es un premio que se da a las investigaciones que destacan por ser peculiares y tener enfoques poco convencionales. Es una oportunidad única de presentar la ciencia desde otro punto de vista que puede ser divertido”, explica.

María José Torres-Prioris.

Sobre la motivación de su trabajo científico, Torres-Prioris explica: “Estaba interesada en todos los mecanismos de secuenciación de fonemas porque trabajo con personas con afasia que tienen problemas de lenguaje a raíz de un ictus y estaba estudiando los errores lingüísticos que cometían estas personas y su relación con variables cerebrales”.

Su equipo tuvo oportunidad de conocer a auténticos expertos en hablar al revés (uno de ellos lo utiliza como técnica de seducción) y detectó que “era realmente un modelo súper interesante porque esta gente reubica los fonemas”. “Era un modelo de pericia. Se ha estudiado mucho desde la perspectiva del daño cerebral o en personas sanas que cometen errores al hablar, que es común. Pero no se había estudiado desde un modelo de expertos”, explica.

Y añade: “Estamos intentando comprender a nivel conductual, a través de pruebas de lenguaje y de otras funciones cognitivas, cómo somos capaces de realizar de forma tan extraordinaria esta secuenciación de fonemas y si esta habilidad se correlaciona con diferencias a nivel cerebral, tanto en su anatomía como en la función”.

La utilidad de los cadáveres

Una araña muerta para la caja de herramientas. Un estudio premiado incorpora un concepto cercano al monstruo de Frankenstein (el de Mary Shelley). El trabajo reutiliza una araña muerta como pinza capaz de “agarrar objetos un 130% superiores a la masa” del bicho reconvertido. Esta ciencia se ha bautizado como “necrobótica”. El nombre lo dice todo.

Los pelos de la nariz de los muertos. También está relacionado con las cosas que nos pueden facilitar los fallecidos el premio de Medicina, otorgado a un trabajo de “cuantificación y medición de los pelos nasales en la población cadavérica”. Los autores se muestran sorprendidos de que no se haya hecho antes.

El gusto es suyo

Por qué los científicos chupan las piedras. El premio de Química y Geología se lo ha llevado el polaco Jan Zalasiewicz por explicar la fascinación por chupar piedras con una narrativa personal, íntima y poética: “La roca que yacía al borde de la carretera no parecía muy interesante al principio: una piedra caliza bastante anodina, con poco más que mostrar a la observación casual de unas pocas manchas vagas. De todos modos, los viejos hábitos nunca mueren, así que la recogí y lamí la superficie (…). El recuerdo de la conmoción y la emoción del descubrimiento todavía está fresco”.

Pajitas conectadas a un circuito eléctrico para experimentar el

Toma descarga. Los japoneses desafiaron al mundo a paladear el umami, ese sabor difícil de describir y del que se ha escrito tanto. Como ven que la cultura gastronómica oriental no tiene bastante y la occidental necesita refuerzos, un equipo nipón ha propuesto ahora la “degustación aumentada usando electricidad”. “El gusto eléctrico es la sensación provocada al estimular la lengua con corriente eléctrica. Nuestro método consiste en cambiar el sabor de los alimentos y bebidas mediante el uso del sabor eléctrico”, proponen. Para ello, han desarrollado pajitas, palillos y tenedores conectados a un circuito eléctrico. Aún no están disponibles en tiendas, pero, si alguien tiene mucha prisa por probar, puede recordar su infancia y chupar los polos de una pequeña pila de petaca.

Desmitificando el viejo castigo de escribir 100 veces. El premio de Literatura se lo ha llevado un equipo de cuatro países por explicar el efecto jamais vu (nunca visto) al repetir palabras muchas muchas muchas veces. Este fenómeno, opuesto al conocido dejà vu (esto lo he visto antes), se refiere a la percepción de algo que es familiar como desconocido. Tras un minuto escribiendo las mismas palabras, un tercio de los investigados empezó a percibir las grafías como “peculiares”. Cientos de escolares podrían haber firmado la investigación.

Vamos a contar ovejas. También relacionado con el ámbito educativo, un trabajo galardonado sostiene que “el aburrimiento está omnipresente entre los escolares” y defiende que existe una actitud previa que predispone a que se intensifique. “Los estudiantes que esperan que una lección los aburra, posteriormente se sienten más aburridos”. La lista de los reyes godos no está en el estudio, pero podría.

¿Pero qué miran? Esta investigación refleja lo que todo el mundo sabe: las personas miran lo que mira la gente. Durante el estudio se observó que la respuesta de los transeúntes ante una multitud que mira un edificio es hacer lo mismo. A más mirones, más personas se agregan. Para este viaje no hacían falta tantas alforjas.

Puedes seguir a MATERIA en Facebook, Twitter e Instagram, o apuntarte aquí para recibir nuestra newsletter semanal.

Seguir leyendo

]]>
REMEDIOS
<![CDATA[ChatGPT ya supera al Rincón del Vago]]>https://elpais.com/tecnologia/2023-09-09/chatgpt-ya-supera-al-rincon-del-vago.htmlhttps://elpais.com/tecnologia/2023-09-09/chatgpt-ya-supera-al-rincon-del-vago.htmlSat, 09 Sep 2023 03:20:00 +0000La inteligencia artificial (IA) es el nuevo Rincón del Vago, la web de intercambio de apuntes y trabajos estudiantiles nacida en Salamanca hace 25 años y que se convirtió en un enorme éxito. Las nuevas aplicaciones, más sofisticadas en sus entrañas, pero más simples en su uso, se han generalizado en las aulas. Enma Linares, de 17 años y estudiante del último curso de Bachillerato, casi no recuerda la última vez que culminó un trabajo rebuscando entre documentación. “Hago una pregunta general y, después, algunas más concretas para diferenciarme de otros compañeros, que recurren también al ChatGPT [una de las plataformas más populares junto a Bing, Bard o Llama]. Copio, pego, reordeno, le doy algún toque personal y ya está. El último trabajo, sobre Hernán Cortés, me llevó media hora”, relata. La Unesco ha reconocido que la inteligencia artificial es una herramienta de enorme potencial con riesgos y desafíos, una dualidad que comparte la comunidad educativa.

Copiar y pegar no es una práctica nueva en el ámbito académico. Adrián González, ahora profesor de Enma Linares, recuerda que, durante la carrera, un compañero que sabía que uno de los docentes, obseso de los trabajos de extensiones enormes que después leía por encima, no sabía inglés. Así que él recurría a algún libro en este idioma sobre el tema y lo traducía, incluyendo las referencias.

“Yo, ahora, me adelanto a mis alumnos y también planteo el tema a las aplicaciones para saber de antemano qué me van a presentar. Pero el trabajo termina en clase. Sobre Hernán Cortés, ChatGPT habla de domino, colonización, explotación y de consecuencias devastadoras para los pueblos indígenas. Afirma que ‘el legado de Cortés es complejo y las opiniones sobre él son muy variadas’. Esa complejidad es lo que trabajamos en clase y es lo que al final me importa”, comenta el docente.

El pasado diciembre, el Distrito Escolar Unificado de Los Ángeles, bloqueó ChatGPT en el wifi de los centros y en los ordenadores públicos. Le siguió Nueva York mientras el Imperial College de Londres y la Universidad de Cambridge advirtieron a los estudiantes contra el uso de ChatGPT para hacer trampa en los trabajos.

“Si bien la herramienta puede proporcionar respuestas rápidas y fáciles a las preguntas, no desarrolla habilidades de pensamiento crítico y resolución de problemas, que son esenciales para el éxito académico y en la vida”, justificó Jenna Lyle, del Departamento de Educación de la Ciudad de Nueva York, tras la prohibición.

Pero los alumnos lo han seguido usando en sus dispositivos personales. A los pocos meses, la mayoría de las autoridades educativas admitió que la prohibición era inútil y rectificó.

James Basham, investigador de la Universidad de Kansas, junto a un equipo de educadores, ha elaborado un estudio sobre el potencial de la inteligencia artificial en la educación y concluye que “la prohibición no es la respuesta”.

“La IA debe considerarse como una herramienta que potencialmente puede beneficiar a los estudiantes, especialmente a aquellos con menos capacidades”, afirma. Pero también admite: “El proceso de escritura es complejo y la inteligencia artificial puede hacerlo, rápida y bastante bien. Naturalmente, algunos estudiantes han usado eso para evitar el trabajo escolar.

Basham prefiere centrarse en los beneficios para los alumnos con dificultades para expresarse por escrito. “La inteligencia artificial puede ayudar con eso. Así que tenemos que pensar en qué preguntas debemos hacer o en qué problemas pensar”.

Educadores, estudiantes y familia

El estudio, claramente contrario a su prohibición, insta a los educadores a “pensar en qué quieren que los estudiantes aprendan y cómo la tecnología puede ayudar a ese proceso”. “Los estudiantes”, continúa el estudio, “necesitan aprender cómo y dónde encontrar información válida, así como a discernir la información verdadera de la falsa, pensar críticamente y evaluar los temas para evitar la desinformación. Los educadores también deben evitar la trampa de evaluar con demasiada rigidez las habilidades para escribir. Los padres también tienen un papel que desempeñar”.

Los autores equiparan la inteligencia artificial con otras herramientas ya comunes, como ordenadores, tabletas, teléfonos inteligentes y otras tecnologías. “Esas herramientas no están prohibidas en las aulas. Del mismo modo, aunque tecnologías como ChatGPT podrían usarse para engañar o reducir la carga de trabajo de los estudiantes, también podrían ser un recurso”, reflexiona.

Aunque tecnologías como ChatGPT podrían usarse para engañar o reducir la carga de trabajo de los estudiantes, también podrían ser un recurso”

James Basham, investigador de la Universidad de Kansas

“La tecnología es un experimento social. Podemos usarlo de manera efectiva o ineficaz. Pero el sistema educativo necesita ponerse al frente y descubrir cómo usar esta tecnología en particular para promover el desarrollo humano. Lo que necesitamos no es tener miedo al cambio, sino centrarnos en el pensamiento crítico y la resolución de problemas, enseñar a los estudiantes a hacerlo, ya sea con inteligencia artificial o sin ella. Necesitamos reflexionar no sobre el día de hoy, sobre cómo cambiará nuestras vidas, sino sobre lo que significa para el futuro”, concluye Basham.

El estudio coincide con las líneas de la Unesco. “Nos acercamos a una época en que la inteligencia artificial transformará todos los aspectos de nuestras vidas. Debemos orientar esta revolución en la dirección correcta”, advierte Stefania Giannini, subdirectora general de Educación de la organización mundial durante la última Conferencia Internacional sobre Inteligencia Artificial y Educación.

Jorge Calvo, profesor experto en tecnología premiado por la Fundación BBVA, va más lejos y afirma que la inteligencia artificial es claramente una herramienta de ayuda en el proceso de aprendizaje y en la gestión de los centros. Pero, además, en su opinión, es importante enseñar al alumnado cómo funcionan los lenguajes de programación, qué son los algoritmos o el machine learning (aprendizaje automático).

“Es necesario que se familiaricen desde pequeños con estas tecnologías, con el proceso mediante el cual una máquina puede hacer proyecciones a partir de los datos que se le suministren. Es lo que se van a encontrar cuando salgan del colegio”, explica Calvo en una información difundida por BBVA.

Herramientas

El Media Lab del MIT (Instituto Tecnológico de Massachusetts por sus siglas en inglés), cuenta con una web para compartir recursos en línea que los estudiantes de Primaria y Secundaria pueden usar para aprender sobre inteligencia artificial, IBM ha creado la plataforma MachineLearningforKids y Code, una organización sin ánimo de lucro, difunde contenido formativo para que profesores y alumnos aprendan a programar.

En España, la Escuela de Pensamiento Computacional e Inteligencia Artificial (EPCIA), del Ministerio de Educación, ofrece recursos con información procede de INTEF, Instituto Nacional de Tecnologías Educativas y de Formación del Profesorado.

Emiliano Blasco Doñamayor, vicerrector de Planificación Estratégica y Cultura Digital de CEU San Pablo, asegura que, desde la irrupción de inteligencia artificial, “la universidad está esforzándose para integrar esta herramienta en el proceso de aprendizaje”. “No se trata de un uso meramente instrumental. Trabajamos para que nuestros alumnos y profesores sepan trabajar con ella de forma ética y correcta, conociendo sus ventajas y limites, pero haciendo también hincapié en lo necesario que es conocer su funcionamiento y cómo poder sacar el mayor rendimiento posible de esta herramienta para poder obtener información veraz, de calidad que permita el crecimiento académico”.

El futuro se dividirá entre aquellos profesionales que entiendan y manejen en mayor o menor media la IA y aquellos que no

Emiliano Blasco Doñamayor, vicerrector de Planificación Estratégica y Cultura Digital de CEU San Pablo

Para ello, como relataba el profesor Adrián González, aboga por combinar la “aproximación teórica”, para la que las aplicaciones pueden aportar información, con la “reflexión crítica” que permita no solo valorar los datos obtenidos, sino también relacionarlos con el objeto del trabajo.

También incorporan formación sobre inteligencia artificial en sí, sobre su funcionamiento y uso. “El futuro se dividirá entre aquellos profesionales que entiendan y manejen en mayor o menor media la IA y aquellos que no”, afirma Blasco.

El vicerrector admite que uno de los grandes retos es el sesgo en los algoritmos, en la programación de la IA. Y recuerda una sentencia dictada hace tres años por el Tribunal de Distrito de La Haya en la que se consideró discriminatorio un sistema algorítmico (SyRI) que utilizaba Hacienda y la Seguridad Social de Holanda para evaluar el riesgo de fraude.

Blasco descarta que estas herramientas sustituyan la docencia, aunque les reconoce su potencial para la formación, por ejemplo, de las plantillas de corporaciones. También en la gestión interna docente, como las aplicaciones para identificar situaciones de estrés o riesgo del alumnado y que permiten actuar de forma específica o las que alivian la carga burocrática.

Pero insiste en que, en la docencia, “la interacción humana no va a desaparecer”. “No debe. Es la base de la sociedad en la que vivimos y la única forma de mantener la esencia del ser humano”, asegura.

Puedes seguir a EL PAÍS Tecnología en Facebook y Twitter o apuntarte aquí para recibir nuestra newsletter semanal.

Seguir leyendo

]]>
picture alliance
<![CDATA[El Ayuntamiento de Sevilla suspende todos los servicios telemáticos por un secuestro informático: “No se negociará”]]>https://elpais.com/tecnologia/2023-09-06/el-ayuntamiento-de-sevilla-suspende-todos-los-servicios-telematicos-por-un-secuestro-informatico-no-se-negociara.htmlhttps://elpais.com/tecnologia/2023-09-06/el-ayuntamiento-de-sevilla-suspende-todos-los-servicios-telematicos-por-un-secuestro-informatico-no-se-negociara.htmlWed, 06 Sep 2023 10:04:36 +0000El Ayuntamiento de Sevilla ha vuelto a las anotaciones en papel y a los trámites presenciales tras sufrir el secuestro de sus sistemas informáticos por un grupo de ciberdelincuentes, según ha confirmado el Consistorio. Los hackers han reclamado hasta un millón y medio de dólares (1.396.642 euros) al gobierno municipal, aunque este ha asegurado que “en ningún caso negociará con ciberdelincuentes”. Es el segundo ataque con éxito a la web municipal en tres años.

Todos los servicios se han visto afectados. Entre los más importantes para las gestiones ciudadanas se encuentran los de solicitud de cita previa y el pago de tributos (acaba de comenzar el segundo plazo para abonar el Impuesto de Bienes Inmuebles), que los funcionarios han pedido que se efectúe de forma presencial en las sucursales bancarias autorizadas. También los dispositivos de emergencias, como Policía Local y Bomberos, se han visto obligados a las anotaciones en papel para registrar y ordenar las actuaciones. Los atacantes calculan que el daño causado se eleva a cinco millones de euros.

El delegado de Transformación Digital, Juan Bueno, ha explicado que “los responsables técnicos del Ayuntamiento y personal externo especializado están trabajando de manera continua y conjunta para determinar el origen y alcance del ataque y poder establecer la normalidad lo antes posible”. “Actuaremos con cautela para no cometer errores”, ha matizado. La partida municipal para prevenir ciberataques fue en 2022 de 200.000 euros dentro del presupuesto global de 1.072 millones, precisan fuentes municipales del nuevo equipo de Gobierno.

El Centro Criptológico Nacional (CCN-CERT) y el Cuerpo Nacional de Policía han comenzado a investigar el secuestro y creen haber identificado el equipo desde el que se inició el ataque, del total de 4.000 ordenadores de que dispone el Consistorio. Mientras, el Ayuntamiento, como medida preventiva, ha interrumpido todos los servicios “hasta conocer el alcance concreto del ciberataque”. De momento, no hay constancia de que los datos personales de los ciudadanos hayan sido alterados por los piratas informáticos, según Bueno.

Al contrario de lo que dice el Ayuntamiento, los atacantes han tenido acceso a la información, de otra forma no sería posible que esta hubiera sido cifrada

Luis Corrons, responsable de seguridad de Avast

Sin embargo, los especialistas dudan de que los datos no se hayan visto afectados. Luis Corrons, responsable de seguridad de Avast, advierte: “Todo parece indicar que el ciberataque que ha sufrido el Ayuntamiento de Sevilla se trata de un ataque con ransomware similar al sufrido por decenas de administraciones, empresas e instituciones en España. Al contrario de lo que dice el Ayuntamiento, los atacantes han tenido acceso a la información, de otra forma no sería posible que esta hubiera sido cifrada. Este tipo de ataques lleva un trabajo por detrás, y de hecho una de las últimas tendencias es que los ciberdelincuentes se lleven una copia de la información antes de proceder a su cifrado”.

Lockbit

El ataque se ha realizado con LockBit, un programa de extorsión identificado en 2019 y conocido también como ABCD. Esta herramienta es una subclase de virus de cifrado para exigir un rescate a cambio de la descodificación de archivos y se centra, principalmente, en empresas e instituciones oficiales más que en particulares. El Ministerio de Interior alertó hace solo dos semanas de una “campaña de distribución masiva” de este virus.

LockBit está dirigido por procesos automatizados diseñados previamente, a diferencia de los ataques que se ejecutan manualmente a través de la red. Una de sus características es su gran capacidad de propagación y su dificultad para ser localizado de forma inmediata. A veces, actúan durante semanas antes de ejecutar el ataque definitivo que causa la denegación de servicios.

Marc Rivero, investigador de seguridad de la compañía informática Kaspersky, explica. “Los ataques de ransomware tienen como objetivo la extorsión, ya que los ciberdelincuentes solicitan un rescate económico para que la víctima pueda recuperar sus datos. Cada vez más organismos públicos y empresas son víctimas de este tipo de amenazas, que pueden evitarse en gran medida con soluciones de ciberseguridad y formación a los empleados. Esto es muy importante. Nuestra empresa detectó más de 74,2 millones de intentos de ataques de ransomware el pasado año, lo que supone un 20% más que en 2021″.

En la misma línea, Eusebio Nieva, director técnico de Check Point Software para España y Portugal, afirma: “Las actividades delictivas han aumentado en el primer semestre del año, con un incremento del 8% en los ciberataques a escala mundial, lo que supone el mayor volumen en dos años. Amenazas conocidas como el ransomware [secuestro y petición de rescate] y el hacktivismo [ataques con fines ideológicos] han evolucionado aún más, con grupos de amenazas que modifican sus métodos y herramientas para infectar y afectar a organizaciones de todo el mundo. Incluso la tecnología heredada, como los dispositivos de almacenamiento USB, que durante mucho tiempo han estado acumulando polvo en los cajones de los escritorios, han ganado popularidad como mensajeros de malware”.

Las actividades delictivas han aumentado en el primer semestre del año, con un incremento del 8% en los ciberataques a escala mundial”

Eusebio Nieva, director técnico de Check Point Software para España y Portugal

Los grupos dedicados a la extorsión (ransomware), según el último informe de esta compañía de seguridad, han intensificado sus herramientas para explotar las vulnerabilidades en programas corporativos de uso común y cambiado su estrategia, pasando del cifrado de datos para evitar el acceso a los mismos al robo directo de la información para exigir un rescate por su recuperación.

La inteligencia artificial también ha irrumpido como herramienta, ya sea para crear los correos electrónicos falsos que incluyen enlaces que dan acceso a los delincuentes a los sistemas (phishing) como para crear programas maliciosos capaces de identificar hasta las pulsaciones de teclas.

En el primer semestre de este año se han identificado 48 grupos de extorsión informática que han atacado a más de 2.200 entidades. También han aparecido, según informa Check Point, nuevos equipos y se ha detectado un incremento de amenazas con origen en Rusia desde la guerra de Ucrania.

El número de amenazas es uno de los más altos registrados”

Jakub Kroustek, director de Investigación de Malware de Avast

Los datos de esta compañía coinciden con los de Avast, otra compañía de seguridad informática que advierte en su último informe: “El riesgo de ataques es el más alto visto en tres años”. España es uno de los países más amenazados junto a Vietnam, Argentina, Francia, Brasil, México, República Checa y Reino Unido.

“No solo el número de amenazas es uno de los más altos registrados, sino que los delincuentes están recurriendo a la manipulación psicológica con más frecuencia que a las técnicas tradicionales de ataques de malware [programación maliciosa]. Esto resulta en la necesidad de que nuestra seguridad se adapte a este nuevo formato, aunque también se requiere de la necesidad de que la gente entienda mejor las estafas y se eduque como una forma de defensa adicional”, advierte Jakub Kroustek, director de Investigación de Malware de Avast

A finales de agosto, el FBI anunció oficialmente el desmantelamiento de la organización internacional de ciberataques de Qakbot (también conocido como Qbot), que ha afectado a más de 700.000 ordenadores en todo el mundo, incluidas instituciones financieras, gubernamentales y sanitarias.

Hace dos años, el Ayuntamiento de Sevilla sufrió otro secuestro, esta vez mediante el conocido como fraude del CEO, por el que los hackers suplantaron la identidad de la empresa adjudicataria del contrato de las luces de Navidad y lograron desviar a sus cuentas el millón de euros de la concesión.

Los delincuentes consiguieron monitorizar la correspondencia digital a través de un virus, interceptaron los correos de la empresa suministradora de las luces navideñas, alteraron su contenido y se los remitieron a la Tesorería municipal pidiendo que cambiaran el número de cuenta, informa Eva Saiz. Cuando el Banco de España detectó un pago de la Administración a una cuenta no habitual, alertó al Consistorio sevillano.

Puedes seguir a EL PAÍS Tecnología en Facebook y Twitter o apuntarte aquí para recibir nuestra newsletter semanal.

Seguir leyendo

]]>
Europa Press News
<![CDATA[Néstor Romero, especialista en identidad digital: “Hundir la imagen y la reputación de una persona o de una marca es cuestión de horas o días”]]>https://elpais.com/tecnologia/2023-09-05/nestor-romero-especialista-en-identidad-digital-hundir-la-imagen-y-la-reputacion-de-una-persona-o-de-una-marca-es-cuestion-de-horas-o-dias.htmlhttps://elpais.com/tecnologia/2023-09-05/nestor-romero-especialista-en-identidad-digital-hundir-la-imagen-y-la-reputacion-de-una-persona-o-de-una-marca-es-cuestion-de-horas-o-dias.htmlTue, 05 Sep 2023 03:20:00 +0000Néstor Romero, malagueño de 48 años, giró 180 grados la dirección de su vida poco después de salir de la Escuela Técnica Superior de Ingeniería Agronómica y de Montes de Córdoba. Descubrió otro campo donde hace 20 años había mucho por hacer: internet. Se convirtió en experto en marketing digital, profesor e investigador y fundó cinco empresas que actúan en 30 países. Su base central está en Panamá, desde donde, entre otras muchas estrategias digitales, persigue todos los datos ilegales y falsos difundidos en la web que arruinan la reputación y las opciones políticas y financieras de presidentes, ministros, banqueros, empresarios y personajes públicos. Una intervención de sus empresas en estos ámbitos puede llegar a costar desde 1.500 hasta 10.000 dólares mensuales (entre 1.364 y 9.000 euros) y prolongarse por más de un año.

Pregunta. ¿Cómo pasa del campo agrícola y forestal a internet?

Respuesta. Trabajé durante unos años en el municipio cordobés de Lucena, en el campo de la ingeniería agrónoma. Pero me daría una pedrada en la cabeza, como dicen aquí, y decidí dejarlo todo a pesar del éxito que estaba cosechando en numerosos proyectos en industria agroalimentaria. Además, no puedo vivir lejos del mar. Volví a Málaga y empecé a trabajar en el mundo de la tecnología, en marketing digital, en posicionamiento en buscadores, que en aquel tiempo no era algo tan común. Fundé una empresa y fue todo un éxito. Se trataba de la primera compañía andaluza que trabajaba con el posicionamiento digital en el mercado ruso. La Cámara de Comercio de Málaga, donde impartía un máster, me ofreció una plaza en una misión comercial a Panamá y fue genial. Es un país pequeño, pero grande en oportunidades y en reconocimiento internacional.

P. ¿Mantiene la relación empresarial con Rusia tras la guerra?

R. No, se rompió en 2014 con la inversión de Crimea. Mi esposa es de Ucrania. Rompimos relaciones totalmente porque nos pareció una acción totalmente injusta y sufrimos mucho cada día en esta guerra loca. El corazón tiene razones que la razón no entiende.

P. Una de las líneas de sus empresas es la reputación digital.

R. La reputación, ya sea digital o física, necesita años para crearse y minutos para perderla. Las personas públicamente expuestas, como presidentes de compañías eléctricas, directivos de multinacionales, principales accionistas de bancos y empresas pueden ver que, de repente, por cualquier circunstancia, pueden ver limitada la posibilidad de poder estudiar en cualquier universidad de EE UU o de abrir una cuenta bancaria en ese país o incluso ver frustrada una oportunidad de inversión o financiación. Miran más allá de las cinco primeras páginas de Google, con búsquedas derivadas de palabras clave, y cualquier mínimo contenido inconveniente puede frustrar los planes. Mantener sana tu imagen en la red es fundamental en Latinoamérica, tanto en el sector privado como en el sector público institucional o político, ya que la falta de facto del derecho al olvido o derecho de supresión se une a la guerra de poder de algunos medios de comunicación.

Se pueden crear auténticas campañas de desprestigio. El daño puede ser muy grande y, ahora, con la oleada de regímenes populistas de un lado o de otro, se está agudizando muchísimo

P. ¿Más que en España y el resto de Europa?

R. España, en comparación, es un paraíso budista [bromea]. En España trabajé en importantes crisis de reputación relacionadas con casos de corrupción o de mala imagen de ciertas marcas. Pero Latinoamérica es otro nivel por las características del poder, del control de los medios de comunicación. Se pueden crear auténticas campañas de desprestigio que afectan de forma directa a empresas o a dirigentes. El daño puede ser muy grande y, ahora, con la oleada de regímenes populistas de un lado o de otro, se está agudizando muchísimo.

P. ¿Por ejemplo?

R. Trabajando con varios grandes bancos he observado que, con que tengan una pequeña mancha en su reputación digital, aunque sea de manera indirecta, el Fondo Monetario Internacional o el Banco Mundial pueden cerrar las puertas y limitar las operaciones prácticamente a cero. Por ejemplo, la concesión de algún préstamo para cualquier proyecto de desarrollo que se asocie finalmente a una afectación negativa al medioambiente puede resultar dramática para la reputación de esa institución bancaria, aunque su responsabilidad legal y técnica sea nula. Ahí, en esos casos, trabajamos con grandes departamentos formados por técnicos y expertos en reputación. También hemos trabajado con algún presidente y con muchísimos ministros. Cuando son países pequeños, el contacto es muy cuerpo a cuerpo y nos gusta mucho más porque se entiende la visión del líder, los conflictos de intereses, las limitaciones y el concepto cultural de cada palabra que un servidor público puede utilizar.

No me podía imaginar lo dura que es la política. El peaje que hay que pagar a veces es muy alto. He visto tantos daños en la reputación de familias enteras

P. ¿Y las consecuencias?

R. No me podía imaginar lo dura que es la política. El peaje que hay que pagar a veces es muy alto. He visto tantos daños en la reputación de familias enteras por culpa de la política, y más cuando se trata de personas que, prácticamente, ya lo tienen todo. Hablo de empresarios que disfrutan de influencia y poder económico y me pregunto: ¿para qué se complican la vida?

P. ¿Qué campañas son las más habituales?

R. Hay países más estrictos con la corrupción, o al menos en los que se aprecia o se acepta menos. España puede ser un ejemplo, o Costa Rica, Uruguay o Chile. En otros países, la corrupción es el día a día y está interiorizada por el ciudadano. Hay cierta condescendencia con la corrupción y hace falta mucha cultura todavía para repudiar algo tan execrable. De ahí que una de las áreas en las que más se trabaja en reputación en entornos corporativos e institucionales sea la de transmitir los valores positivos, de manos, por ejemplo, de la responsabilidad social en cada una de las organizaciones. No sólo hay que ser santo, sino parecerlo. La inmensa mayor parte de las acciones responsables que empresarios y servidores públicos pasan desapercibidas y no dejan huella digital.

P. ¿Y es fácil la batalla?

R. Es un mundo donde no se para de aprender. Supone luchar todos los días contra un algoritmo que no conoces y persiguiendo, básicamente, huellas dejadas en el universo Google. Percibimos por dónde puede ir la cosa, pero cada día cambian las reglas del juego.

La inteligencia artificial, en los últimos meses, ha puesto todo patas arriba

P. ¿Con qué armas?

R. Siempre trabajamos desde el punto de vista ético, con un código deontológico. No es cuestión de limpiar los trapos sucios a nadie. Trabajamos con la parte más legal en casos evidentes de insultos, calumnias o campañas de desprestigio contra personas, marcas y corporaciones. También analizamos todo lo que esté indexado [datos e informaciones presentes] tanto en la web más superficial como la web profunda. Creamos mucho contenido en un mundo que la inteligencia artificial, en los últimos meses, ha puesto todo patas arriba. Hay que crear contenido de mucha calidad, analizando tanto la parte de comportamiento del usuario, es decir, cómo el usuario se va a sentir atraído hacia un resultado u otro, como la parte más algorítmica, más técnica, que es intentar darle a entender a Google que este resultado tiene más relevancia o tiene más autoridad que otro. Ahora tenemos a más de 80 personas trabajando en eso, analizando, sacando datos, intentando comprender el algoritmo, cómo funcionaba ayer y cómo, posiblemente, funcionará mañana. Los detalles tienen mucho peso.

P. ¿Se puede superar una crisis de reputación?

R. En Europa, gracias al derecho al olvido, tenemos una gran herramienta para quienes han sufrido una huella digital negativa. En Latinoamérica requiere de mucho mayor esfuerzo y limpiar totalmente una imagen es complicado en ocasiones. Hundir la imagen y la reputación de una persona o de una marca en internet es cuestión de horas o días. De ahí la importancia de publicar información y contenidos de manera ética y responsable. Y eso nos afecta a todos.

P. ¿Se puede prevenir?

R. El problema que tienen la mayor parte de las personas o marcas públicamente expuestas es que no crean una identidad digital y, en cualquier momento, alguien que hable mal de ellos puede originar una mancha imborrable que llega a las primeras páginas de Google, donde el porcentaje de clics es muy elevado porque un contenido negativo atrae más que uno positivo. Ese comportamiento empuja a Google y a otros buscadores a destacar esos resultados con mayor número de interacciones hacia puestos más destacados. Si una persona o marca tiene ya bastante contenido creado, publica en su blog, tiene sus redes sociales activas y con una comunidad interesante, realmente va a estar mucho menos expuesto a ese primer tsunami. Recibimos casos todos los días y casi todos vienen ya prácticamente en el lecho de muerte en cuanto a su reputación se refiere. Haber trabajado una identidad digital nos blinda frente a esas crisis reputacionales de efectos tan devastadores.

P. ¿Y las tecnológicas facilitan la labor?

R. En estos últimos años han despedido gran parte de la plantilla y no sabemos si realmente tienen departamentos funcionando o están desbordados. Con los poquitos que han quedado vivos de esa quema, las tecnologías están ayudando bastante poco. No hay apenas interlocutores en Meta, en Twitter o en Google. En Latinoamérica aún menos. Quien sufra una crisis de reputación lo tiene mucho más complicado que en Europa, donde hay más amparo legal y más presión sobre las tecnológicas para que actúen ante ciertas circunstancias.

P. ¿Es caro?

R. Son presupuestos elevados porque implican a decenas de técnicos, muy cualificados y con gran experiencia en técnicas SEO. Además, trabajamos con máxima confidencialidad, para que lo que hace una mano no lo sepa la otra. En cada departamento tenemos compartimentos estancos, hilos donde un trabajador no se entera jamás del caso que lleva otro. Por menos de 1.500 dólares mensuales no se puede hacer nada. Sería un caso simple. Hay otros que alcanzan los 5.000 y hasta 10.000 dólares mensuales. Y el proceso puede prolongarse por más de un año.

Puedes seguir a EL PAÍS Tecnología en Facebook y Twitter o apuntarte aquí para recibir nuestra newsletter semanal.

Seguir leyendo

]]>
<![CDATA[Huellas de mojarras en Lepe desvelan una migración extrema de peces a zonas abisales hace 130 millones de años]]>https://elpais.com/ciencia/2023-09-04/huellas-de-mojarras-en-lepe-desvelan-una-migracion-extrema-de-peces-a-zonas-abisales-hace-130-millones-de-anos.htmlhttps://elpais.com/ciencia/2023-09-04/huellas-de-mojarras-en-lepe-desvelan-una-migracion-extrema-de-peces-a-zonas-abisales-hace-130-millones-de-anos.htmlMon, 04 Sep 2023 19:00:00 +0000Hace unos 130 millones de años, la fauna marina experimentó una de las migraciones más extremas que se conocen. Parte de la población que habitaba aguas más superficiales se adentró en el mundo inhóspito abisal en busca de alimentos, un viaje a las profundidades que obligó a adaptarse a condiciones de temperatura gélidas, una presión de 200 kilogramos por centímetro cuadrado y ausencia de luz. Una investigación publicada en la revista PNAS ha descubierto en Italia las “huellas” o trazas más antiguas dejadas por los peces en las llanuras abisales del entonces océano Tetis. Y una de las claves para el hallazgo han sido las trazas que las mojarras actuales dejan en los lodos de los estuarios de la costa onubense de Lepe y que fueron descritas en una investigación previa. Una conexión inesperada que permite reescribir la evolución de la fauna marina hace millones de años.

Los restos fosilizados de peces más antiguos en zonas abisales se remontaban hasta ahora a unos 50 millones de años. Seguir sus huellas o trazas en las profundidades es muy complejo por el bajo potencial de fosilización del entorno y la pérdida de toda evidencia en la subducción del fondo oceánico, el hundimiento de una placa litosférica bajo el borde de otra placa. Sin embargo, una investigación encabezada por Andrea Baucon, paleontólogo e icnólogo (científico que estudia las huellas o señales de actividad dejadas en los sedimentos o las rocas por organismos vivos) de la Universidad de Génova, ha descubierto nuevas evidencias que adelantan la presencia de peces procedentes de aguas superficiales en las profundidades en más de 80 millones de años.

“Los peces han ocupado el fondo marino profundo desde al menos el Cretácico Inferior”, afirma Baucon, que sitúa las huellas halladas en las edades de los pisos geológicos Barremiense y Hauteriviense. Los rastros encontrados se corresponden con los dejados por peces demersales en su proceso de alimentación.

Este adelanto contradice la principal tesis mantenida hasta la fecha, que atribuía la conquista del fondo marino a un evento anóxico oceánico (disminución del oxígeno) más reciente. Sin embargo, la nueva investigación defiende que los peces migraron antes de este evento y que no fue esta carencia de oxígeno el detonante, sino la explosión de recursos en el fondo marino.

Una “fiesta” a 2.000 metros de profundidad

“En el Cretácico temprano”, explica Baucon, “hubo un aumento dramático en la productividad oceánica. Fue una fiesta para los animales sedimentívoros o que se alimentan de sedimentos (por ejemplo, crustáceos, gusanos) y para los peces que se alimentaban de estas pequeñas criaturas”.

Esa “fiesta” se celebró en la llanura abisal del entonces océano de Tetis a unos 2.000 o 3.000 metros de profundidad, según el investigador. El trabajo describe signos de alimentación de peces diferentes. “Lo más probable”, aclara Baucon, “es que fueran tres especies: un neoteleósteo desdentado, otro pez parecido a una quimera actual con dientes imponentes y una tercera especie que tendría una gran aleta caudal; todo ello inferido a partir de la morfología de los tres tipos de trazas fósiles descubiertas en el yacimiento”.

Huellas fosilizadas investigadas (a y c) y rastro actual de un pez en el fondo (b).

Una de las huellas muestra surcos de alimentación que, según el paleontólogo, “requiere la presencia de dientes para raspar el sedimento y producirlos”. “Por otro lado, las trazas que son depresiones circulares implican la ausencia de dientes para producir un chorro de agua con los que generar los pozos (depresiones) de alimentación estudiados. Otras trazas son surcos sinuosos que suponen el contacto de una aleta caudal larga con el fondo”, detalla el investigador.

La icnología, el estudio de las huellas (o registro de la actividad) dejadas en los sedimentos o las rocas por seres vivos, precisa de ejemplos antiguos y actuales para establecer paralelismos que avalen las conclusiones. De esta forma, los rastros fósiles (o icnofósiles) hallados en Italia se compararon con los que dejan especies actuales durante su alimentación, como las generadas por peces cartilaginosos holocéfalos modernos (quimeras) a 1.500 metros de profundidad en el océano Pacífico. O las depresiones que dejan en el Mar de Liguria (Mediterráneo) los aparatos de succión altamente desarrollados característicos del grupo de los neoteleósteos y que guardan muchas similitudes con los icnofósiles estudiados.

Huella actual de una mojarra dejada en un estero de Lepe.

Pero la clave fundamental, la que permitió orientar la investigación desde el comienzo, fue una investigación previa sobre los rastros que los espáridos del género Diplodus (mojarras) dejan en las zonas intermareales someras del estuario del Río Piedras en Lepe (España).

Entre 2010 y 2015, Fernando Muñiz y Zain Belaústegui, icnólogos y profesores de las Universidades de Sevilla y Barcelona, respectivamente, encabezaron el estudio de estructuras realizadas por mojarras en los canales secundarios de la flecha de Nueva Umbría en el río Piedras. “Al bajar la marea, se llegan a observar multitud de especies interactuando con el fango del fondo, como peces, gusanos, crustáceos, gasterópodos y bivalvos. Una vez se llega al momento de bajamar y la superficie queda expuesta, se pueden observar las estructuras que han dejado estas especies. Entre las numerosas huellas observadas, unas en concreto eran muy similares a las que el paleontólogo Baucon ha hallado en Italia, datadas en 130 millones de años e interpretadas como dejadas en ambientes marinos profundos”, comentan los expertos.

La conexión con la mojarra lepera

“La mojarra deja dos surcos con sus dientes incisivos al comer los microorganismos del fango. Otras veces chocan el morro contra las paredes de los canales, dejando otro tipo de estructura diferente. Hasta nuestra investigación, cuando estas estructuras fosilizaban, se atribuían a artrópodos y no a peces, ya que ese tipo de invertebrados también dejan huellas muy parecidas. Se trata, por tanto, de un claro ejemplo de uno de los principios de la icnología: diferentes organismos pueden dejar huellas o trazas similares”, explica Muñiz. “Pero los rastros de las mojarras dan la pista para pensar en otras especies de zonas más profundas, en concreto, peces demersales que interactuaban con el fondo tras un proceso adaptativo para conquistar espacios con más presión, menos temperatura y casi sin luz”, explican los investigadores.

Este proceso adaptativo no fue fácil y obligó a las especies de hace 130 millones de años a desarrollar capacidades similares a la de los peces que hoy habitan zonas profundas. “Los peces modernos que se enfrentan a condiciones similares muestran ojos modificados, tejidos de baja densidad y metabolismo lento. En las profundidades del mar, la presión es tan alta que desestabiliza las proteínas; para contrarrestar los efectos desestabilizadores de la presión, por ejemplo, los peces de aguas profundas tienen una alta concentración de óxido de trimetilamina [compuesto orgánico producto de la descomposición] en sus tejidos. Por eso suelen ser tan malolientes. Los peces de aguas profundas desarrollaron un mecanismo de secreción de moléculas de oxígeno que eliminó la necesidad de tomar aire en la superficie para inflar la vejiga natatoria”, detalla Baucon.

“Estas adaptaciones son tan sorprendentes como las que permitieron a los vertebrados colonizar el aire y la tierra, es decir, la aparición de las alas para el vuelo y las extremidades para caminar”, concluye el paleontólogo.

Puedes seguir a MATERIA en Facebook, Twitter e Instagram, o apuntarte aquí para recibir nuestra newsletter semanal.

Seguir leyendo

]]>
NOAA Okeanos Explorer Program
<![CDATA[Marcos Curty, Quantum Communication Center: “Con un computador cuántico, toda nuestra criptografía actual se viene abajo”]]>https://elpais.com/tecnologia/2023-08-30/marcos-curty-quantum-communication-center-con-un-computador-cuantico-toda-nuestra-criptografia-actual-se-viene-abajo.htmlhttps://elpais.com/tecnologia/2023-08-30/marcos-curty-quantum-communication-center-con-un-computador-cuantico-toda-nuestra-criptografia-actual-se-viene-abajo.htmlWed, 30 Aug 2023 06:02:22 +0000Marcos Curty es doctor en Telecomunicaciones y no tiene móvil. Asegura que es una decisión personal y meditada. Tiene 47 años y se ha propuesto convertir su ciudad natal, Vigo, en una capital mundial cuántica a cuenta de la seguridad, uno de los grandes desafíos de esta tecnología por las vulnerabilidades que se puede abrir y las defensas inexpugnables que se buscan. A lo largo de trayectoria académica internacional, este catedrático de Teoría de la Señal y Comunicaciones se ha codeado con los mayores expertos del sector, que son los que conforman ahora, bajo la coordinación de Curty, la red de Quantum-Safe Internet, el plan europeo de formación en ciberseguridad, y el Quantum Communication Center, el complejo de investigación en el que participan empresas y universidades de una decena de países para situar la ciudad gallega en el mapa mundial cuántico con un presupuesto cercano a los 10 millones de euros, financiados por el Ministerio de Ciencia y el Gobierno autonómico gallego, además de fondos europeos para investigación y ayudas de empresas como Cisco.

Pregunta. ¿Es seguro el sistema actual?

Respuesta. La seguridad de nuestras comunicaciones se protege con métodos que se llaman criptográficos. Se utilizan todos los días en aplicaciones para conectarse a internet, al banco… Y queremos estar seguros de que nade va a acceder a esos datos. En comunicaciones gubernamentales, empresariales o militares también necesitamos seguridad para nuestras comunicaciones y, sobre todo, confidencialidad, que nadie pueda acceder a la información que nosotros transmitimos por la red más allá del destinatario. Y como se está incrementando significativamente la cantidad información que transmitimos en redes de comunicaciones abiertas, más importante es proteger esa información. Hoy se utilizan, principalmente, métodos de criptografía de clave pública, cuya seguridad se fundamenta en la dificultad de resolver ciertos problemas matemáticos. Con los computadores cuánticos, muchos problemas van a ser fáciles de resolver y alguno de ellos son, precisamente, estas funciones que se utilizan en criptografía.

Con los computadores cuánticos, muchos problemas van a ser fáciles de resolver y algunos de ellos son, precisamente, estas funciones que se utilizan en criptografía

P. Peter Shor, matemático del Instituto de Tecnología de Massachusetts, ya advirtió hace 30 años que un ordenador cuántico podrá resolver un problema de factorización de manera eficiente.

R. Eso implica que esencialmente con un computador cuántico se podría romper toda la criptografía que hay actualmente en internet. La factorización es un ejemplo concreto, pero bastante relevante porque uno de los sistemas criptográficos actuales que más se utiliza internet está basado precisamente en ese problema matemático. Hay otros problemas matemáticos que se utilizan también actualmente, pero también se pueden romper. Esencialmente, con un computador cuántico, toda nuestra criptografía actual se viene abajo. Y ahí es donde aparece la idea de Quantum Safe Internet: desarrollar métodos criptográficos que sean robustos.

P. ¿Pero se reproduce la espiral actual donde el desarrollo de nuevas tecnologías de seguridad también favorece la aparición de nuevas formas de ataque?

R. Si nuestros ordenadores son más potentes, los problemas que eran difíciles van a ser más fáciles de resolver. La criptografía poscuántica busca problemas que, a lo mejor, un ordenador cuántico no va a poder resolver de forma eficiente. Ya se han seleccionado algunos algoritmos y próximamente se van a hacer estándares, pero no hay ninguna garantía.

P. De hecho, algunos de los algoritmos finalistas se han roto con un ordenador clásico o incluso con un portátil.

R. Efectivamente. Es un camino que tiene ciertas ventajas porque, básicamente, es continuar con el mismo tipo de infraestructura que tenemos ahora. Pero puede que, dentro de unos años, a alguien se le ocurra un algoritmo que efectivamente es muy eficiente y puede acceder, de forma retroactiva, a todos los datos del pasado. Es una solución para aplicaciones a corto plazo.

Cuando quieres enviar información por un canal de comunicaciones abierto que tú no controlas, esa información puede ser copiada. En mecánica cuántica no es posible

P. ¿Hay otro camino?

R. Otra solución está basada en comunicaciones cuánticas que pueden aportar seguridad frente a cualquier ordenador. Podemos utilizar esta tecnología para lograr comunicaciones plenamente seguras. Cuando quieres enviar información por un canal de comunicaciones abierto que tú no controlas, esa información siempre puede ser copiada. En mecánica cuántica no es posible. Si la información se codifica en partículas elementales y en ciertos estados no es posible copiar la información y cualquier intento de hacerlo va a introducir ruido detectable. Además, no hay ninguna garantía de que lo que se intenta reproducir sea una copia fidedigna de lo que se estaba transmitiendo. Esa seguridad no depende de la capacidad computacional.

P. ¿Y ahí entra la Universidad de Vigo?

R. Hemos empezado una iniciativa para investigar en España y hemos conseguido crear dos grupos de muchísimo prestigio internacional en el Quantum Communication Center. Uno está liderado por el profesor Hugo Zbinden, que viene de la Universidad de Ginebra y es pionero en comunicaciones cuánticas desde la década de los noventa. Ha conseguido algunos de los resultados experimentales más relevantes en el campo en este momento y tiene el récord de la distancia máxima de transmisión. Otro grupo es el del profesor Vadim Makarov, de Quantum Hacking Lab, el principal experto en cuestiones de certificación y de hackeo. Los sistemas son seguros y se puede probar matemáticamente, pero hay que tener mucho cuidado para construir un sistema seguro. Makarov es el mayor experto internacional en encontrar vulnerabilidades de estos sistemas y solventarlas.

P. ¿El próximo curso, Vigo va a ser la capital de la seguridad cuántica?

R. Me encantaría decirlo. Desde luego, creo que, en este momento, hay pocas iniciativas o ninguna en este campo concreto las comunicaciones cuánticas que tenga el talento que tenemos en la Universidad de Vigo.

P. ¿Supone un problema de seguridad la presencia de expertos de nacionalidades en conflicto?

R. Lo que hacemos es investigación que se traduce en publicaciones científicas y los resultados van a ser públicos. Para hacer investigación, no veo ningún tipo de incompatibilidad. Somos equipos de diferentes nacionalidades y unos participamos en unos proyectos y en otros no.

P. ¿Habrá comunicaciones cuánticas desde el espacio?

R. La Agencia Espacial Europea tiene varios programas en este sentido con satélites de baja órbita y en España hay una iniciativa en la que participa la Universidad de Vigo con Hispasat para evaluar las posibilidades de enlaces de comunicaciones cuánticas satélites de órbita muy alta.

Puedes seguir a EL PAÍS Tecnología en Facebook y Twitter o apuntarte aquí para recibir nuestra newsletter semanal.

Seguir leyendo

]]>
Universidad de Vigo
<![CDATA[El científico que ‘resucita’ moléculas de neandertales para encontrar nuevos antibióticos]]>https://elpais.com/ciencia/2023-08-25/el-cientifico-que-resucita-moleculas-de-neandertales-para-encontrar-nuevos-antibioticos.htmlhttps://elpais.com/ciencia/2023-08-25/el-cientifico-que-resucita-moleculas-de-neandertales-para-encontrar-nuevos-antibioticos.htmlFri, 25 Aug 2023 03:20:00 +0000“En 10 o 20 años estaremos muriendo por infecciones de bacterias resistentes a los antibióticos”, afirma la genetista Edith Heard. La Organización Mundial de la Salud (OMS) lleva años alertando sobre la plaga de microorganismos que eluden a los fármacos existentes y matarán cada año a 10 millones de personas en todo el mundo, más de los que fallecen por cáncer. En esta batalla de dimensiones gigantescas anda César de la Fuente, premio Princesa de Girona de investigación científica y profesor de bioingeniería en la Universidad de Pensilvania (EE UU). Sus armas son la inteligencia artificial y la experiencia de su equipo de investigación, Machine Biology, capaz de detectar miles de moléculas con potencial antibacteriano. Las buscan en compuestos naturales, como el veneno de las avispas, o en el mapa general de proteínas del cuerpo. Y, ahora, en nuestros ancestros neandertales y denisovanos, que le han servido para “resucitar” moléculas perdidas por el Homo sapiens en su evolución.

En el cuerpo hay más células bacterianas que humanas. Entre las aptitudes más relevantes de las bacterias, los organismos más abundantes del planeta y responsables desde generar la placa dental hasta de mantener la fertilidad de la tierra, está su capacidad de desarrollar resistencias a los antibióticos. Y de este modo, convertirse en una amenaza para millones de personas.

El equipo de De la Fuente rebusca compuestos para responder a este desafío. Lo ha hecho en el proteoma, el conjunto completo de proteínas en el cuerpo, donde ha descubierto 2.603 péptidos (moléculas formadas por aminoácidos) con funciones biológicas no relacionadas con el sistema inmunológico y que, sin embargo, poseen actividad antiinfecciosa.

De la Fuente, coruñés de 37 años, incluido en la lista de los 50 españoles más galardonados y distinguido entre los mejores investigadores por la Sociedad Estadounidense de Química y el Instituto de Tecnología de Massacuhssets, explica cómo se han fijado en lo que denomina desextinción, la recuperación de compuestos del pasado que ya no existen. “Habíamos desarrollado un algoritmo para explorar el proteoma humano como una fuente de antibióticos y encontramos muchas de esas secuencias que llamamos péptidos encriptados. Eso nos llevó a pensar que estas secuencias se habían producido a lo largo de la evolución y cumplían un papel en el sistema inmune para defendernos de agentes invasores o infecciosos como las bacterias”, explica el científico. “Entonces decidimos investigar el proteoma de nuestros antepasados más cercanos, que son los neandertales y los denisovanos”, añade.

Recreación de actividades cotidianas de un grupo neandertal en el interior de una cueva.

El proteoma base era público gracias a las investigaciones sobre ADN ancestral que culminaron el pasado año con el Nobel a Svante Pääbo por desvelar la genética de humanos extintos. “Lo que hicimos”, detalla el investigador español, “fue desarrollar un algoritmo para explorar estos datos, esos proteomas humanos para ver si podíamos encontrar antibióticos codificados en las proteínas”.

De la Fuente explica que es una idea inspirada por Parque Jurásico. “El concepto de la película era traer de vuelta a la vida organismos enteros: dinosaurios. Pero eso tiene muchos problemas éticos, ecológicos y técnicos. Hoy no tenemos suficiente información genómica como para resucitar un dinosaurio. A nosotros se nos ocurrió el concepto de desextinción molecular: en vez de un organismo entero, intentar traer de vuelta a la vida moléculas del pasado para hacer frente a problemas del presente, como la resistencia a los antibióticos”.

A nosotros se nos ocurrió el concepto de desextinción molecular: en vez de un organismo entero, intentar traer de vuelta a la vida moléculas del pasado para hacer frente a problemas del presente

César de la Fuente, biotecnólogo de la Universidad de Pensilvania

La investigación, publicada en Cell Host & Microbe y reseñado por Nature, emplea información genómica y proteómica de ADN mitocondrial para hallar, con la ayuda del algoritmo diseñado por el equipo y con la aplicación de inteligencia artificial, moléculas que podían ser potenciales antibióticos.

“El momento más fascinante”, relata De la Fuente, “fue cuando hicimos la resurrección de estas moléculas usando un método que se llama síntesis química en fase sólida”. “A partir del código que nos da el ordenador sobre aminoácidos con capacidad antibiótica, hacemos que las máquinas los sinteticen químicamente”, añade.

La verificación experimental llegó cuando expusieron sus moléculas resucitadas (cuatro péptidos de Homo sapiens, uno de Homo neanderthalensis y uno de denisovano) en placas de Petri (recipientes de laboratorio) y en ratones afectados por la bacteria Acinetobacter baumannii, una causa común de infecciones hospitalarias. Los seis mostraron efectos positivos en distinta medida, alguno con una eficacia similar a la de antibióticos convencionales actuales.

“Las dosis utilizadas fueron extremadamente altas, pero la idea es interesante”, matiza para Nature Nathanael Gray, biólogo químico de la Universidad de Stanford en California y ajeno a la investigación. Gray duda de un efecto inmediato en el desarrollo de fármacos a partir de compuestos extintos.

Sin embargo, De la Fuente cree que el objetivo de la investigación no es solo encontrar nuevos antibióticos, sino “la nueva manera de pensar en cómo descubrir nuevas moléculas usando información de organismos extintos”. “La desextinción molecular nos puede ayudar a abrir nuevos espacios que no habíamos explorado anteriormente y esto quiere decir que, quizás, podamos encontrar una biología de nuestros antepasados con la que aprender más sobre nosotros mismos y sobre el potencial de algunas moléculas”, añade.

Euan Ashley, experto en genómica y salud de precisión de la Universidad de Stanford en California, coincide: “Sumergirse en el genoma humano arcaico es un enfoque interesante y potencialmente útil”.

Ejemplar de 'Eumenes micado'.

El equipo del investigador español lleva media década buceando allí donde cree que puede encontrar una nueva arma fundamental para la salud humana: en el pasado y en el presente, en humanos o en otros ámbitos de la naturaleza. Un ejemplo es el hallazgo de material biológico potencialmente beneficioso en el veneno de la avispa solitaria Eumenes micado, una investigación publicada en Cell Reports Physical Science.

“Los venenos son una fuente muy poco explorada de potenciales medicinas o moléculas con funcionalidades interesantes. Llevamos unos años ya mirando en distintos venenos para reprogramarlos y remover o eliminar la toxicidad para aprovechar la capacidad antibiótica”, explica De la Fuente.

La clave es la combinación de las herramientas de inteligencia artificial con la robótica biotecnológica y la experiencia y conocimientos del Machine Biology Group. “Hace un lustro”, añade el científico, “el tiempo medio para descubrir un antibiótico era de tres o seis años. Ahora, en horas o en días, podemos descubrir miles”.

Puedes seguir a MATERIA en Facebook, Twitter e Instagram, o apuntarte aquí para recibir nuestra newsletter semanal.

Seguir leyendo

]]>
<![CDATA[Una mina de oro en la basura: así se salvan los metales preciosos de los aparatos desechados ]]>https://elpais.com/tecnologia/2023-08-19/una-mina-de-oro-en-la-basura-asi-se-salvan-los-metales-preciosos-de-los-aparatos-desechados.htmlhttps://elpais.com/tecnologia/2023-08-19/una-mina-de-oro-en-la-basura-asi-se-salvan-los-metales-preciosos-de-los-aparatos-desechados.htmlSat, 19 Aug 2023 03:20:00 +0000“Una tonelada de teléfonos móviles desechados es más rica en oro que una tonelada de mineral”, afirma Ruediger Kuehr, profesor de la Universidad de Limerick (Irlanda) y responsable de la oficina de Naciones Unidas Scycle en Alemania. Según sus cálculos, “en un millón de teléfonos móviles, por ejemplo, hay 24 kilogramos de oro, 16.000 de cobre, 350 de plata y 14 de paladio”. Los residuos de aparatos eléctricos y electrónicos (RAEE o WEEE, por las siglas en inglés de Waste Electrical and Electronic Equipment) constituyen minas urbanas que ahora no se aprovechan al máximo: solo se recupera un 20% de los desechos mundiales.

La empresa minera internacional Atlantic Copper ha comenzado en Huelva la construcción de la séptima planta del mundo (cuarta de la UE y primera del sur europeo) de gran capacidad para extraer de los residuos electrónicos estos preciados materiales, cuya demanda aumenta por encima de los recursos naturales disponibles. La inversión comprometida es de 310 millones de euros, que crearán 350 puestos de trabajo e implantarán tecnología de última generación.

En los próximos 25 años, la demanda de metales y minerales se multiplicará por 12. “Cada año necesitamos procesar un monte Everest”, asegura el investigador Pablo Gámez Cersosimo, un costarricense asentado en Países Bajos. Allí es el máximo responsable de Naturally Digital, una organización especializada en sostenibilidad, comportamiento humano, ética y bienestar digital.

La extracción de materiales como oro, plata, platino, paladio, níquel, estaño, antimonio o bismuto de la Tierra es costosa y perjudicial para el medioambiente. Por el contrario, la basura los contiene y, según Kuehr, “estos recursos podrían recuperarse y devolverse al ciclo de producción. Si no reciclamos estos materiales, es necesario extraer nuevos suministros, dañando el entorno”.

Esta mina que ahora se almacena en gran parte en los vertederos la forman los más de 60 millones de toneladas de residuos eléctricos y electrónicos que genera el mundo cada año, cuyo peso supera al de la Gran Muralla china, la mayor y más pesada construcción humana. Según el Global E-waste Monitor, en solo siete años y de acuerdo con las previsiones de crecimiento (entre el 3% y el 4% anual), se alcanzarán los 74 millones de toneladas anuales por el aumento del consumo, la menor vida útil de los dispositivos y las limitaciones para repararlos.

Sin embargo, se puede reciclar todo lo que tenga cable, enchufe o batería. “Además, la recuperación de oro y otros materiales de los desechos ahorra muchas emisiones de CO₂ en comparación con la minería de metales vírgenes”, explica Kees Baldé, de la Universidad de Naciones Unidas.

La presencia de oro y plata en la basura es la más llamativa. Pero la más significativa es la concentración de cobre (hasta 16 toneladas por cada millón de teléfonos móviles, sin contar el resto de dispositivos). Este metal, básico por su conductividad y capacidad térmica, está tres veces más presente en los coches eléctricos que en los de combustión y es esencial para las energías renovables, la electrificación y la digitalización.

Residuos electrónicos y eléctricos, en una planta madrileña.

Su demanda ha aumentado un 50% en los últimos 20 años. Sin embargo, las instalaciones de gran capacidad para la recuperación de cobre de los residuos son escasas. Solo hay plantas en Bélgica, Suecia, Alemania, Canadá, Japón y Corea del Sur.

España, donde la recuperación de residuos de aparatos eléctricos y electrónicos supera a la media mundial en 30 puntos y alcanza el 50% (por encima de la media europea, que se estima en un 48,5%), ha tardado en incorporarse a este restringido club de recicladores masivos. Lo va a hacer con una planta que se construye ya en Huelva, con capacidad para tratar 60.000 toneladas al año, equivalentes a la totalidad de los residuos electrónicos y eléctricos aprovechables que genera el país. En el primer trimestre de 2025 se prevé obtener la primera producción generada a partir de desechos.

Javier Targhetta, consejero delegado de Atlantic Copper, la mayor compañía de cobre de España (y filial del grupo norteamericano Freeport-McMoRan, segundo mayor productor del mundo), defiende que “la planta no es solo un buen negocio sino una gran necesidad de la sociedad”. “Con nuestro proyecto [denominado CirCular], España va a llegar al 100% de tratamiento y reciclaje. Es un paso muy importante porque puede que sea el primer país del mundo que lo consiga”.

Una tonelada de teléfonos móviles desechados es más rica en oro que una tonelada de mineral

Ruediger Kuehr, profesor de la Universidad de Limerick (Irlanda) y responsable de la oficina de Naciones Unidas Scycle

El proceso comienza en los gestores de residuos, que separan en origen los materiales reciclables. Para ello, algunas empresas ya cuentan con inteligencia artificial capaz de identificar y separar los residuos en función de su procedencia y características.

Un trabajador traslada planchas de cobre en el complejo de Atlantic Copper en Huelva.

A la compañía le interesa, según explica Targhetta, “todo aquello que contiene metales no férreos y preciosos, así como las tarjetas de circuitos”. “Es el cogollo de lo eléctrico y electrónico. La chicha”, resume. Ahí se encuentra la mina de metales no férreos (cobre, estaño, níquel) y preciosos (oro, plata, platino y paladio). De cobre prevén conseguir entre 7.000 y 8.000 toneladas anuales; de estaño, 1.000 toneladas; de níquel, aproximadamente la misma cantidad; y de oro, entre 100.000 y 200.000 onzas (la onza que se usa para pesar metales preciosos equivale a 31 gramos). “Es mucho. Nos convertiremos en el primer productor de metales preciosos de España, de largo”, resalta el directivo Atlantic Copper.

Si el negocio es bueno y hay necesidad y demanda, ¿por qué ahora y no antes y por qué hay tan pocas plantas en el mundo? “El proceso tecnológico es complejo porque vamos a tratar una mezcla de ocho materiales distintos”, aclara Targhetta, quien precisa su ventaja competitiva: el proceso básico es la fundición, una instalación con la que ya cuenta la compañía. Otra razón es la elevada inversión: 310 millones de euros, contando con la tecnología de la que ya disponen.

Tecnología para reciclar metales

La materia prima preparada, la que aportan los gestores de residuos, se convierte en una mezcla más o menos homogénea de partículas. Con ella se alimenta un horno de patente australiana, pero innovado por el personal de la empresa minera en Huelva, del que sale cobre crudo, un producto intermedio que ya tiene alrededor del 94% del elemento deseado. La escoria de ese producto incluye estaño, que se separa muy bien, y el resto de los materiales. El cobre crudo se incorpora a la línea ya existente de tratamiento para obtener placas de cobre ya puro, de 350 kilogramos de peso.

Los lodos resultantes del proceso, filtrados y secados, se exportan, sobre todo, a Japón y Corea, para culminar el proceso. Pero los planes de la compañía para el futuro pasan por poder hacer este último tratamiento en su planta onubense y completar el 100% del proceso de reciclado en España. El consumo energético de este proceso de reciclaje es menos de la mitad que el necesario para la extracción tradicional de minas; y las fuentes renovables, que ya aportan la mitad del consumo del complejo actual, se sumarán a la autogenerada por la nueva planta, que supondrá el 25%.

El proyecto, ya en marcha, ha obtenido los permisos medioambientales en un tiempo récord, algo que Targhetta atribuye al esfuerzo de los trabajadores de la compañía para completar el proceso y por explicar el proyecto a los vecinos de Huelva, una ciudad con algo más de 140.000 habitantes.

Oposición

La principal voz discordante acerca de este proyecto es la Mesa de la Ría, una organización que llegó a disponer de representación municipal en Huelva durante los últimos 12 años, pero que ha perdido sus dos últimos concejales en las elecciones de mayo. Este grupo, que ha vuelto a ser una plataforma social como en sus orígenes, sostiene que las autorizaciones del Puerto de Huelva y el Ayuntamiento se han aprobado sin las medidas básicas de información y participación ciudadana. Según la Mesa de la Ría, que preside Juan Manuel Buendía, el reciclaje se realiza por “coincineración o fundición de los residuos previa trituración de los aparatos electrónicos, lo que requiere la construcción de nuevas chimeneas, produciendo un aumento de la contaminación en Huelva”.

Esta organización afirma que la población prevista en la zona de la planta superará los 8.000 habitantes, incluirá un estadio para 18.000 personas y centros docentes, por lo que debería estar más alejada. El colectivo ha denunciado el proyecto al Defensor del Pueblo y a la Consejería de Salud de la Junta de Andalucía.

Pablo García Vila, coordinador de Medio Ambiente de la compañía, rechaza las críticas: “No solo hemos tenido en cuenta la población situada a menos de 1.000 metros del proyecto, como obliga la anterior metodología de la Consejería de Salud y Consumo de la Junta de Andalucía, sino a la de todo el entorno y áreas habitadas situadas alrededor del proyecto. Vila destaca, en una información de la compañía, “que durante el proceso de participación ciudadana no se presentaron alegaciones al estudio, como se refleja en la Autorización Ambiental Integrada”. Además, fuentes de Atlantic Copper inciden en que, para evitar emisiones, en los procesos de fundición más avanzados se utilizan técnicas más eficientes en los hornos y en los sistemas de captación y limpieza de gases y partículas, así como la monitorización continua de potenciales fuentes de contaminación.

Puedes seguir a EL PAÍS Tecnología en Facebook y Twitter o apuntarte aquí para recibir nuestra newsletter semanal.

Seguir leyendo

]]>
<![CDATA[Lo clásico derrota a lo cuántico: dos equipos superan con computación convencional el logro de IBM con 127 cúbits]]>https://elpais.com/tecnologia/2023-08-18/lo-clasico-derrota-a-lo-cuantico-dos-equipos-superan-con-computacion-convencional-el-logro-de-ibm-con-127-cubits.htmlhttps://elpais.com/tecnologia/2023-08-18/lo-clasico-derrota-a-lo-cuantico-dos-equipos-superan-con-computacion-convencional-el-logro-de-ibm-con-127-cubits.htmlFri, 18 Aug 2023 03:20:00 +0000Hay récords que permanecen décadas imbatidos y otros que tan solo duran segundos, como el de la atleta de heptatlón Adrianna Sulek, que solo disfrutó de su marca mundial 6,43 segundos. En la informal competición entre la computación clásica y cuántica también sucede. El pasado 14 de junio, una investigación publicada en Nature aseguraba haber conseguido con 127 cúbits, capacidad ya presente en los ordenadores cuánticos comerciales, resultados imposibles en la computación clásica. Solo dos semanas después, sendos trabajos de Caltech y de la Universidad de Nueva York reivindicaron haber logrado resoluciones más precisas con computación clásica. “Esta pugna entre lo clásico y lo cuántico es muy enriquecedora”, comenta David Pérez García, investigador del Instituto de Ciencias Matemáticas (Icmat) y catedrático de la Universidad Complutense de Madrid.

Youngseok Kim, Andrew Eddins y Abhinav Kadala, investigadores de IBM, junto a otros autores, afirmaron en Nature haber evidenciado que un procesador cuántico y un procesamiento posterior al análisis pueden generar, manipular y medir de manera confiable estados cuánticos tan complejos que sus propiedades no podrían estimarse de forma precisa mediante aproximaciones convencionales.

“Ninguna computadora clásica tiene suficiente memoria para codificar las posibilidades calculadas por los 127 cúbits”, afirmaron los autores. Göran Wendin y Jonas Bylander, investigadores de la Universidad de Tecnología de Chalmers (Suecia), lo respaldaron: “La ventaja cuántica fundamental aquí es la escala en lugar de la rapidez: los 127 cúbits codifican un problema para el cual ninguna computadora clásica tiene suficiente memoria”.

“Recursos modestos”

Sin embargo, este récord solo supuso un acicate para intentar batirlo. Investigadores del Flatiron Institute Center de física cuántica computacional aceptaron el desafío y, en solo 12 días, publicaron una investigación con una “simulación clásica, precisa y eficiente en memoria y tiempo”, del sistema difundido en Nature. “Al adoptar un enfoque de red tensorial, podemos realizar una simulación clásica que es significativamente más precisa que los resultados obtenidos por el dispositivo cuántico”, aseguran los autores, quienes destacan que se ha hecho con “recursos computacionales modestos”.

Tan solo dos días después, investigadores de Caltech (Instituto de Tecnología de California) mostraban otro trabajo en el que “un algoritmo clásico basado en la dinámica dispersa de Pauli puede simular eficientemente los circuitos cuánticos estudiados en el experimento reciente con los 127 cúbits del procesador Eagle de IBM”.

Los investigadores hacen referencia al artículo publicado solo dos días antes para afirmar: “El hecho de que ambos enfoques clásicos tengan éxito ilustra el rico panorama de algoritmos clásicos aproximados que aún no se han explorado. Creemos que el método que describimos aquí es prometedor no solo para las simulaciones de circuitos cuánticos, sino también para problemas de simulación más generales en dinámica cuántica”.

Todas son buenas

El profesor e investigador David Pérez García, experto en redes de tensores (la estrategia desarrollada en el primero de los trabajos alternativos al de ventaja cuántica), considera “sorprendentes” las tres investigaciones: “Son espectaculares. Que diferentes técnicas reproduzcan los resultados del experimento da hasta más valor. Los resultados son buenos. No son ruido”.

Lo que sí contradicen los trabajos alternativos al publicado en Nature es la conclusión de que es imposible alcanzar los mismos resultados con otras formas de computación. “Demuestran que el experimento [de IBM] no está en el punto de afirmar que no es simulable con ningún método clásico”, zanja Pérez García.

“Pero no creo que la ventaja cuántica fuera era el objetivo principal, sino que se pueden obtener resultados buenos en sistemas grandes, complejos, sin tener que pasar a corrección de errores, que es el sueño ideal de la computación cuántica. Hay un término medio que es la mitigación de errores y que puede aportar resultados muy interesantes”, añade el investigador español.

Las técnicas utilizadas se desarrollaron para simular el comportamiento de sistemas cuánticos con ordenadores clásicos. “La propia simulación muestra que estas ideas que están usando son interesantes y se pueden usar para otro tipo de problemas. El campo es muy dinámico. Las dificultades estar ahí y, aunque todavía no se pueden lanzar las campanas al vuelo para decir que esta tecnología ya es una realidad, sí que se observan avances muy prometedores”, resalta Pérez García.

Puedes seguir a EL PAÍS Tecnología en Facebook y Twitter o apuntarte aquí para recibir nuestra newsletter semanal.

Seguir leyendo

]]>
<![CDATA[El efecto abeja: un simple cambio en una red biológica puede generar consecuencias catastróficas]]>https://elpais.com/ciencia/2023-07-20/el-efecto-abeja-un-simple-cambio-en-una-red-biologica-puede-generar-consecuencias-catastroficas.htmlhttps://elpais.com/ciencia/2023-07-20/el-efecto-abeja-un-simple-cambio-en-una-red-biologica-puede-generar-consecuencias-catastroficas.htmlThu, 20 Jul 2023 03:20:00 +0000Un equilibrio inestable se da cuando un ligero movimiento lleva a un cuerpo a perder su posición original y afecta a todo el sistema. Este principio, que en aeronáutica es fundamental, también se da en la naturaleza. Hasta ahora, la mayoría de los estudios se centran en los efectos singulares de una alteración sobre un elemento del ecosistema. Pero este es mucho más complejo y funciona como una red, como un sofisticado tejido de lana donde la afección sobre un solo punto puede afectar a todo el entramado y, a veces, con consecuencias catastróficas, según la hebra de la que se tire. Un estudio que publica Nature y en el que ha participado Jordi Bascompte, premio Ramón Margalef de Ecología e investigador de la Universidad de Zúrich (Suiza), demuestra cómo cualquier interacción genera cadenas de efectos directos e indirectos que alteran la aptitud de las especies que coevolucionan en las redes naturales. La simple introducción de la conocida abeja melífera (o doméstica) en un entorno donde sea invasiva puede poner patas arriba todo el sistema.

La aptitud de las especies es “la capacidad de los organismos para sobrevivir y reproducirse”, según recuerda el estudio publicado este miércoles. Y esta cualidad, considerada como “moneda biológica fundamental”, depende de las interacciones ecológicas que, desde las antagonistas hasta las mutualistas, son “una de las principales fuerzas que han generado y sostienen la biodiversidad de la Tierra”. “A través de las interacciones se empieza a entender cómo funcionan las comunidades, cómo se articulan muchos de los servicios ecosistémicos y cómo se construye la arquitectura de la biodiversidad”, explica Bascompte.

El efecto en cadena se ha estudiado ampliamente con dos eslabones, con interacciones aisladas, como cuando la probóscide de una mariposa coincide con la longitud del tubo floral de las plantas tras una interacción mutualista de años en busca del beneficio mutuo. Sin embargo, esta lupa puede dejar fuera de foco otros efectos directos o indirectos sobre el conjunto de la red natural. “La biología evolutiva se ha centrado en casos extremos, de especialización máxima, que son los que ocupan las portadas de libros”, lamenta el biólogo, ecólogo e investigador.

El nuevo estudio, realizado con métodos analíticos y simulaciones numéricas de 186 redes, amplía el foco para mostrar las afectaciones directas e indirectas que “alteran la aptitud de las especies que coevolucionan en estas redes”. Algunas pueden pasar inadvertidas, otras pueden ser bienintencionadas, pero catastróficas, y otras pueden enmascarar las consecuencias durante años, hasta que son irreversibles. En cualquier caso, ninguna es completamente inocua. El equilibrio en la naturaleza es inestable y comprenderlo es fundamental para prevenir o actuar.

Una abeja doméstica convertida en invasora

“Las especies periféricas soportan más efectos indirectos y experimentan mayores reducciones en la aptitud que las especies centrales [las protagonistas de la red mutualista, aquellas especies que interaccionan de forma directa con muchas otras especies]”, defiende el estudio. “Este efecto topológico”, añaden los investigadores, “también fue evidente cuando analizamos un estudio empírico de una invasión de la abeja doméstica. A medida que las melíferas se integraron como una especie central dentro de las redes, aumentaron los efectos indirectos en otras especies, reduciendo su aptitud. Nuestro estudio muestra cómo y por qué tales efectos indirectos pueden gobernar el paisaje adaptativo de conjuntos mutualistas ricos en especies”.

“Esta teoría de la eficacia biológica nos permite mapear los cambios de cada una de las redes y ver que hay especies que se ven beneficiadas y otras especies que se ven desfavorecidas”, explica Bascompte. Algunos ecosistemas, como los arrecifes de coral y los bosques tropicales, dependen en gran medida de relaciones de beneficio mutuo. “Las interacciones mutualistas, por definición, aumentan la aptitud de los individuos que interactúan y se completan con cambios evolutivos recíprocos”, según recuerda el estudio.

Pero ese beneficio directo puede generar efectos indirectos y afectar a la misma capacidad de supervivencia de otras especies, especialmente las periféricas, que no coevolucionan de la misma forma. “Cuanto mayor sea la contribución de los efectos indirectos generados por otras especies a la evolución de otra, menor será la aptitud de esta”, concluye el estudio.

No debemos pensar en el hombre y la biosfera sino en el hombre dentro de la biosfera, formando parte de esas redes

Jordi Bascompte, biólogo e investigador de la Universidad de Zúrich

Uno de los factores de alteración de las interacciones ecológicas con efectos extraordinarios es la actividad humana, “que homogeneiza las comunidades ecológicas y conduce a una reorganización de las relaciones directas e indirectas, cambiando en última instancia el resultado de la coevolución y alterando la aptitud de las especies”, según advierte el trabajo publicado en Nature. “No debemos pensar en el hombre y la biosfera sino en el hombre dentro de la biosfera, formando parte de esas redes”, advierte el ecólogo.

La investigación ha simulado los efectos de la introducción de la abeja melífera europea (Apis mellifera) en un entorno donde no es la especie central en las redes de polinización y demuestra que “convertirla en invasora puede afectar sustancialmente a la aptitud de las especies nativas y remodelar sus paisajes adaptativos”.

El mismo experimento admite que las especies afectadas pueden recurrir a nuevas relaciones mutualistas. “Pero la evidencia experimental indica que rara vez se da este caso, especialmente a altas densidades de las especies invasoras”, advierten los investigadores.

Y concluyen: “En términos generales, nuestros resultados resaltan cómo y por qué la estructura de las redes ecológicas puede gobernar la aptitud, el paisaje adaptativo y, en consecuencia, la persistencia de especies en los ecosistemas de la Tierra”.

Aplicaciones

El científico español cree que estas conclusiones son de extraordinaria relevancia a la hora, por ejemplo, de la restauración de ecosistemas: “No tiene sentido, por ejemplo, reintroducir especies que dependen de otras generalistas que ya no están en la comunidad”.

Y también en la recuperación de especies ya extinguidas. “Tendemos a pensar de forma muy lineal, muy simplista. Aunque, hace unos cientos de años, una especie estuvo presente, las comunidades actuales se han organizado en un estado diferente y, a veces, hay consecuencias bien intencionadas que acaban teniendo efectos desastrosos. Es muy complicado entender las consecuencias porque las comunidades funcionan en forma de red y hay un entramado de interacciones y otras incidencias que hacen muy difícil cualquier predicción”.

Otra de las aplicaciones de los modelos teóricos de la red de interacciones es predecir el comportamiento de un sistema ecológico e identificar los puntos de no retorno. “Es como una moviola de la historia para ver a cámara rápida las extinciones graduales, sus consecuencias y el punto de colapso de la red entera”, explica el biólogo.

“Los sistemas ecológicos”, aclara el investigador, “no necesariamente funcionan de forma lineal. Si se destruye el 20% del hábitat y se pierden cinco especies, se podría pensar de forma equivocada que destruir el 40% supondría la extinción de 10 especies. Eso no es así. A veces, aparentemente no pasa nada, porque los sistemas tienen la capacidad de absorber la perturbación, pero si vamos empeorando las condiciones, los sistemas ecológicos pierden esa resilencia. Se alcanza un umbral en el que destruir un 3% más de hábitat va a generar una consecuencia catastrófica, el sistema va a colapsar de forma abrupta. Nuestro trabajo teórico nos permite predecir la cercanía de esos puntos de no retorno”.

En este sentido, un estudio ajeno al trabajo de Bascompte y publicado en Plos One, coincide en que el daño que conduce a la pérdida de biodiversidad no es inmediatamente evidente y genera lo que se califica como “deuda de extinción”. Según el artículo, la mayoría de las investigaciones se centran en pérdidas relativamente rápidas de hábitat y de especies. Sin embargo, a la rápida pérdida inicial le sigue una lenta extinción que posteriormente aumenta exponencialmente.

“Por otra parte”, añade el biólogo español, “hay formas de vida que solo pueden aparecer en un ecosistema cuando hay un tamaño crítico de red y, a partir de ese momento, ya funcionan de forma automática. Entender las propiedades de las redes nos permitiría decir cuál es la intervención mínima necesaria para su funcionamiento”.

Bascompte cree que la comprensión general del concepto de efectos directos e indirectos en una red es clave en otros aspectos de la vida donde la interacción sea moneda de cambio. Señala en este sentido cómo “la sociología ha cuantificado hasta qué punto la intención de voto de una persona puede verse afectada por la influencia de personas con las que nunca han interaccionado directamente, pero sí a través de un amigo común”. Y del mismo modo, las enseñanzas pueden aplicarse a la economía, a las relaciones laborales o internacionales, a la comunicación social, a las distintas comunidades de un entorno… Todos vivimos en una compleja red de la que formamos parte.

Puedes escribir a rlimon@elpais.es y seguir a MATERIA en Facebook, Twitter e Instagram, o apuntarte aquí para recibir nuestra newsletter semanal.

Seguir leyendo

]]>
Fundación Descubre
<![CDATA[Las huellas de Doñana son de neandertales y no de un linaje previo, según un nuevo estudio sobre los rastros de esta especie]]>https://elpais.com/ciencia/2023-07-14/las-huellas-de-donana-son-de-neandertales-y-no-de-un-linaje-previo-segun-un-nuevo-estudio-sobre-los-rastros-de-esta-especie.htmlhttps://elpais.com/ciencia/2023-07-14/las-huellas-de-donana-son-de-neandertales-y-no-de-un-linaje-previo-segun-un-nuevo-estudio-sobre-los-rastros-de-esta-especie.htmlFri, 14 Jul 2023 09:28:41 +0000Unos miles de años de diferencia pueden parecer banales en los millones que abarca la prehistoria. Sin embargo, una datación 150.000 años más o menos en huellas de homínidos puede obligar a cambiar algunas páginas de este periodo e incluso la cronología de la evolución humana. Una discordia de estas características ha ocurrido con las huellas de homínidos halladas en El Asperillo, un enclave costero onubense situado entre las playas de Mazagón y Matalascañas. Un estudio publicado en Scientific Reports defendía que la edad de estas huellas era de 295.800 años, por lo que podrían haber sido dejadas por un linaje previo del neandertal y representar, según los autores, “un registro crucial para comprender las ocupaciones humanas en Europa en el Pleistoceno”. Un nuevo trabajo de datación publicado en Quaternary Science Reviews fija la edad de las huellas en 151.100 años, asegura que son de neandertales (las más antiguas) e incorpora restos de utensilios de piedra utilizados por estos para manipular la carne de los gigantescos animales que cohabitaron este entorno, hoy parque nacional de Doñana, al que los homínidos acudían temporalmente a cazar.

Encontrar una pisada preservada durante más de 150.000 años es un premio paleontológico difícil de obtener. Esas simples huellas o rastros, estudiados por la icnología (disciplina de la Paleontologia que estudia evidencias de actividad dejadas en los sedimentos o las rocas por organismos vivos), pueden aportar luz sobre quién o qué la dejó, el entorno de vida, de dónde venía y hacia dónde se dirigía, para qué, de qué se alimentaba, cómo se relacionaba con su mundo… Las tormentas de hace tres años en Matalascañas se aliaron con los investigadores y desvelaron las evidencias de la actividad biológica, incluida la humana, dejadas hace milenios en una zona de playa y acantilados que había permanecido intacta. José María Galán, guía del parque nacional de Doñana, autor de las ilustraciones de esta información y experto rastreador de las huellas de la historia, fue el primero en advertir de la singularidad del vestigio existente en las arenas de Huelva.

Reconstitución del tamaño de los uros en función de las pistas encontradas.

El nuevo yacimiento, denominado MTS (Matalascañas Trampled Surface o Superficie Pisada de Matalascañas) y descrito por primera vez por este mismo equipo internacional en 2020, incluye huellas y rastros de grandes mamíferos como Palaeoloxodon antiquus, elefantes de colmillo recto parecidos a sus parientes actuales de las florestas africanas, pero de hasta cuatro metros de altura; Sus scrofa scrofa, jabalíes que triplicaban el tamaño de los que hoy existen; Bos primigenius, toros de hasta dos metros de altura y 1.500 kilogramos de peso; ciervos y lobos. También delicados fósiles de rastros de aves y de raíces, así como madrigueras de invertebrados. Pero las huellas más sustanciales son de homínidos que se refugiaron en el sur de Europa de la glaciación del resto del continente.

El estudio publicado por Scientific Reports les atribuyó unos 300.000 años de antigüedad, en el Pleistoceno medio. “Abrió un nuevo escenario geocronológico, en comparación con estudios anteriores, y planteó preguntas sobre la edad del MTS [yacimiento de Matalascañas] y, en consecuencia, de las posibles especies de homínidos que podrían haber producido las huellas”, advierte el nuevo trabajo.

Ese “nuevo escenario” no cuadraba con el resto de huellas de mamíferos en las mismas capas geológicas ni con los materiales encontrados. Por lo que, el equipo encabezado por Carlos Neto De Carvalho, paleontólogo del Naturtejo UNESCO Global Geopark y de la Universidad de Lisboa, Fernando Muñiz, geólogo e icnólogo de la Universidad de Sevilla, y Luis Miguel Cáceres, geólogo de la Universidad de Huelva, entre otros, mantuvo abierta su investigación y prefirió esperar a los resultados de una exhaustiva datación con luminiscencia ópticamente estimulada (OSL) desarrollada por el laboratorio del burgalés Centro Nacional de Investigación sobre la Evolución Humana (CENIEH). La conclusión, recién publicada, “asegura la atribución de las huellas a los neandertales, los únicos homínidos conocidos que han estado presentes en la península Ibérica durante la transición MIS6-5 [Pleistoceno medio]”.

“Los únicos humanos presentes en aquel momento en la península Ibérica y que dejaron las huellas de su actividad eran neandertales. Son las huellas de esta especie de humanos más antiguas halladas en Europa y del mundo, ya que solo el neandertal ocupaba, en esa época, Europa y la zona fronteriza con Asia”, afirma Muñiz.

Neto de Carvalho destaca que, más allá de ser o no los más viejos rastros de esta especie, aún presente en nuestro ADN, la clave es la datación precisa: “Lo más importante ni siquiera es la antigüedad, sino el hecho de ser los primeros rastros de neandertales bien definidos cronológicamente, la industria lítica encontrada en su entorno y que es la única evidencia de interacción directa con los animales con los que se alimentaban”.

Rastro de tres pasos de un adulto neandertal hallado en Matalascañas (Huelva) en la misma superficie que un conjunto de huellas de elefantes de colmillos rectos, algunos neonatos.

En este sentido, el estudio detalla que la industria lítica típica musteriense (126 herramientas de piedra pertenecientes al Paleolítico medio y relacionadas con el Homo neanderthalensis) refleja que la selección de materias primas se hizo en afloramientos situados cerca de la zona en la que se dejaron las huellas. “Posiblemente, las manufacturaron allí mismo con los recursos líticos que ofrecía el entorno, como guijarros de cuarcita”, explica Muñiz.

Luis Miguel Cáceres precisa que “estos recursos líticos son escasos en el área más inmediata, por lo que lo más sencillo era traerlos desde donde abundan”. “Estas fuentes abundantes no están demasiado lejos, son las terrazas del Tinto o del Guadalquivir, situadas a unos 30 km hacia el noroeste, las primeras, y hacia el noreste las segundas”.

El origen de las piedras y el lugar de uso, según la investigación, confirma que el yacimiento “no puede verse como un asentamiento, sino más bien como un lugar de paso para la fauna, incluidos los neandertales, donde algunos individuos humanos realizaron actividades temporales, como la adquisición de alimentos y el procesamiento de carne”.

Recreación del sistema dunar lacustre de la zona que hoy ocupa Doñana hace 150.000 años. / JOSÉ MARÍA GALÁN

Cáceres añade que “los neandertales no contaban con asentamientos propiamente estables, sino que se movían por el territorio aprovechando los recursos que les podía ofrecer el medio natural. Las cuevas les servían de asentamiento temporal y, probablemente, estacional”.

“El sistema lacustre estacional entre las dunas costeras [que hoy forma parte de Doñana] era un sitio de congregación donde diferentes mamíferos, incluidos los homínidos, y las aves convergieron, presumiblemente, para obtener recursos hídricos y alimenticios y, posiblemente, también para la reproducción”, ratifica el estudio en contraste con las teorías que señalan que la zona pudo ser un asentamiento estable. El trabajo anterior sugería esta hipótesis con la atribución de hasta 87 huellas a un grupo social de edades diferentes.

“Comportamiento de acecho”

“El MTS [yacimiento de Matalascañas] representa un caso extraordinario donde las huellas neandertales se produjeron al mismo tiempo o poco después que las otras huellas de grandes herbívoros. La evidencia arqueológica (instrumentos de piedra) y las huellas de los animales junto con las de la marcha lenta observada en los rastros de neandertales permiten inferir un posible comportamiento de acecho. La presencia de herramientas líticas asociadas es una evidencia convincente de que se usaron para el procesamiento animal. No son evidencia de asentamiento, sino más bien de un lugar de paso, tanto para la fauna como para los neandertales”, concluye el estudio. “Las huellas de neandertal fueran producidas exactamente en el mismo momento de las restantes huellas con una diferencia de horas o pocos días”, explica Neto y ratifica Cáceres.

Detalle de una de las huellas descubiertas en Matalascañas.

Las dataciones de ambos estudios se han realizado por luminiscencia ópticamente estimulada (OSL), una técnica que, según explica Alicia Medialdea, física del CENIEH especializada en este método, “aporta la edad de los sedimentos a partir de la dosis de radiación ionizante que han recibido los granos de cuarzo y feldespato. Esta radiación proviene principalmente del uranio, torio y potasio de su entorno. La dosis acumulada dependerá de la concentración de estos radioelementos en el medio y del tiempo que los granos minerales hayan estado recibiendo esa radiación. Esa relación será la que dé el tiempo que un sedimento concreto lleva enterrado”.

La técnica es fiable, defiende Medialdea, y se ha ejecutado correctamente en los dos estudios, que han arrojado una diferencia de edad de 150.000 años sobre muestras diferentes tomadas de la misma zona, pero no del mismo punto. “Este método”, explica la física, “data la última vez que los granos de arena estuvieron expuestos a la luz solar, asumiendo que eso se produjo la última vez que sufrieron un proceso de transporte antes de quedar enterrados. En los casos en los que el transporte fue muy rápido, en un medio muy turbio o durante la noche, es posible que no todos los granos estuvieran expuestos a la luz durante su último transporte y, por tanto, no blanquearan su señal luminiscente. Esto supondría que, en un mismo nivel, habría mezcla de granos de arena a los que le dio suficiente luz durante el último transporte, y serían válidos para estimar la edad, y otros, no blanqueados, que mantendrán una señal residual. Esta mezcla, que denominamos blanqueamiento parcial, puede dar lugar a sobreestimaciones de la edad”.

Y añade: “Hay muchos perfiles sedimentarios distintos en el acantilado de Matalascañas y los dos grupos no han tratado exactamente lo mismo. Las muestras medidas por uno y otro grupo no son exactamente las mismas. Puede ser que las dataciones estén correctamente hechas, pero sea necesario revisar la interpretación de la estratigrafía para entender mejor cómo se formó el acantilado de Matalascañas“.

Herramientas de piedra pertenecientes al Paleolítico medio, halladas en Matalascañas y relacionadas con el 'Homo neanderthalensis'.

De esta forma, el método físico empleado (las medidas de luminiscencia y concentración de radioelementos del medio) requiere de un análisis e interpretaciones exhaustivas para poder llegar a estimar cuándo quedó el sedimento depositado y enterrado. “Ahora que disponemos de dataciones en la zona, toca trabajar para reforzarlas apoyándose en la industria lítica asociada y en las huellas de fauna”, concluye Medialdea.

En el último estudio publicado han participado investigadores del Geoparque Naturtejo, Sevilla, Huelva, Lisboa, Coimbra, Burgos, Barcelona, Murcia y Gibraltar.

Puedes escribir a rlimon@elpais.es y seguir a MATERIA en Facebook, Twitter e Instagram, o apuntarte aquí para recibir nuestra newsletter semanal.

Seguir leyendo

]]>
José María Galán
<![CDATA[Bambú, la hierba mágica de más rápido crecimiento del mundo y que sirve para todo]]>https://elpais.com/ciencia/2023-07-10/bambu-la-hierba-magica-de-mas-rapido-crecimiento-del-mundo-y-que-sirve-para-todo.htmlhttps://elpais.com/ciencia/2023-07-10/bambu-la-hierba-magica-de-mas-rapido-crecimiento-del-mundo-y-que-sirve-para-todo.htmlMon, 10 Jul 2023 06:38:02 +0000El bambú es una hierba, gigante, pero no deja de ser una humilde herbácea de la familia de las gramíneas (poáceas) con características muy singulares: algunas especies crecen entre 70 centímetros y un metro en un solo día, es capaz de fijar entre tres y cuatro veces más CO₂ que otras plantas, florece una vez cada 100 o 150 años de media para morir después, sus raíces no profundizan más allá de 100 centímetros, aunque la altura de sus tallos pueda superar los 25 metros en solo tres años, cuando alcanza la madurez, y con no más de tres metros cuadrados pueden aportar sombra sobre una superficie hasta 60 veces mayor. Manuel Trillo y Antonio Vega-Rioja, dos biólogos formados en la Universidad de Sevilla, han creado el primer vivero certificado de bambú no invasivo en Europa, un laboratorio botánico para investigar y aplicar todas las bondades de esta hierba, sobre la que pesan prejuicios más enraizados que los rizomas de la planta.

Hay hoteles, casas, escuelas y puentes hechos de bambú. Esta hierba, la de crecimiento más rápido del mundo, aporta alimento, sombra, oxígeno y es capaz de reducir la temperatura ambiente hasta en 15 grados con respecto a una superficie al sol. Sin embargo, arrastra la falsa losa de ser considerada invasora, pese a que solo una veintena de las más de 1.500 especies identificadas tienen tal consideración y solo en algunas regiones.

“El prejuicio viene de confundir origen con comportamiento. La patata o el tomate o la naranja tampoco son originales de Europa, pero no son invasivas. La raíz del bambú es central, no como la grama. Solo genera un macollo [vástagos, flores o espigas que nacen de un mismo pie]”, señala Vega-Rioja.

El padre de Vega-Rioja, que era arquitecto técnico, comenzó a interesarse por estas plantas y le transmitió la pasión a su hijo que, ya como biólogo, y junto a su compañero Manuel Trillo, crearon un laboratorio botánico ecológico para investigar e introducir esta planta como elemento ornamental, industrial y bioclimático, entre otros usos. De ahí nació La Bambusería, situada a escasos kilómetros de la capital andaluza y que constituye el primer vivero europeo de esta planta para especies no invasoras.

Manuel Trillo (izquierda) y Antonio Vega-Rioja, en el vivero de bambú no invasivo creado en Sevilla.

“Reunimos 10.000 semillas de las que germinaron 7.500 y seleccionamos unas 400 en función de sus características”, explica Vega-Rioja mientras muestra en el laboratorio botánico, de solo una hectárea y situado en la vega del Guadalquivir, diferentes especies adaptadas a diversas condiciones climáticas: algunas soportan hasta -12 grados y sobrevivieron a Filomena mientras otras crecen en los desiertos. La gigantesca masa verde contrasta con las fincas vecinas sembradas con girasoles y patatas. En la puerta de entrada se registran 40 grados sobre el asfalto de la carretera de acceso. En el vivero, 25,1.

En el interior solo se escuchan los pájaros, pese a que, a escasos 50 metros, medio centenar de trabajadores recogen la cosecha de patatas. Las virtudes del bambú como pantalla contra el ruido han sido ampliamente investigadas y los estudios demuestran que es un material acústico absorbente adecuado.

Pero el potencial de este gigante herbáceo es enorme. Conocido por ser clave en la alimentación del panda, hasta el punto de haber condicionado su fisionomía, según publica Scientific Reports, el bambú ha estado presente en la vida humana desde el principio de los tiempos.

Plantación de distintas especies en La Bambusería, el vivero ecológico creado en Sevilla.

Y esta presencia permanente se debe a que, además de ser también una fuente de alimento, su estructura especial, analizada en un estudio de National Science Review, no ha pasado inadvertida para los humanos, quienes han utilizado la planta para todo tipo de construcciones o para ahorrar hasta el 20% de energía en el transporte de objetos pesados con una simple vara. “Estas herramientas, notables pero simples, pueden reducir potencialmente el esfuerzo energético del portador”, explica Ryan Schroeder, de la Universidad de Calgary, en Journal of experimental biology.

Otro artículo, publicado en GCB Bioenergy describe cómo el bambú puede ser un recurso para desarrollar energía renovable. “El bioetanol y el biocarbón son los principales productos que se pueden obtener”, explica Zhiwei Liang, de la Universidad Húngara de Agricultura y Ciencias de la Vida.

La clave de la versatilidad del bambú reside en la distribución espacial de las fibras en los cilindros huecos, que se optimiza para reforzar su resistencia y la capacidad de flexión. “Imitar el modelo de ligereza y dureza del bambú, un enfoque llamado biomimética, ha demostrado ser exitoso para resolver muchos problemas en el desarrollo de materiales”, afirma Motohiro Sato, de la Universidad de Hokkaido y autor de una investigación en Plos One. En este sentido, la membrana portadora de agua dentro del bambú, que le permite ser la planta de más rápido crecimiento en el mundo, ha inspirado a un equipo de investigación de la Universidad Tecnológica de Queensland para desarrollar electrodos más eficientes para baterías que podrían permitir recargas a un ritmo mucho más rápido.

Invernadero de experimentación con especies de bambú.

La lista de usos y aplicaciones de la naturaleza del bambú es enorme, desde la elaboración de menaje biodegradable hasta la fabricación de bicicletas o muebles pasando por todas las ramas de la construcción. Y en esa senda se han adentrado los dos biólogos españoles. “Nunca hemos dejado la investigación”, afirma Trillo, quien tuvo que complementar sus conocimientos de biología con los de agricultura, un máster práctico que le facilitó su vecino Emilio Jiménez, sin cuyas enseñanzas no habrían podido llevar a cabo el proyecto, según admite el investigador.

El compromiso con el laboratorio botánico hizo que Vega-Rioja se haya convertido en el primer exportador legal de bambú de Tailandia o que no dejen de experimentar con la hibridación para conseguir plantas de características especiales según su uso o la zona en la que se vayan a cultivar o que persigan semillas únicas por el mundo, que pueden llegar a costar hasta 10 dólares cada grano, para conseguir un vivero de hasta 200 variedades.

Una de las aplicaciones con un potencial de aplicación inmediato y efectos a corto plazo es la creación de espacios verdes resistentes a plagas y sombreados en zonas específicas, donde se pueden conseguir soluciones bioclimáticas con una mínima utilización de suelo (incluso se pueden plantar en macetas) y sin perjudicar la superficie construida.

Tallos de bambú de diferentes especies cultivadas en Sevilla.

Hablan de zonas cercanas a autovías, de patios de colegios, de polígonos industriales, de plazas sin sombra, de vallados domésticos, de avenidas o de áreas desprovistas de vegetación. No defienden el bambú como solución alternativa a la flora autóctona, sino como herramienta de intervención quirúrgica en espacios donde es necesaria una cubierta vegetal rápida, que capture la mayor cantidad de CO₂ posible y aporte un 35% más de oxígeno y una sombra capaz de reducir el calor en 15 grados cuando las condiciones ambientales son extremas.

El precio por metro cubierto por bambú puede variar entre 70 euros y hasta 500 euros, según el coste de producción de la planta y la singularidad de la especie que se requiera. Esta hierba puede aportar una estructura de longevidad centenaria, a un precio menor del metro cuadrado de construcción y con un consumo hídrico mayor en los tres primeros años y mucho menor después de la madurez y durante las estaciones de reposo.

Para defenderlo cuentan con un arsenal científico. Como una investigación publicada en Nature sobre 293 ciudades europeas que demuestra que los espacios urbanos, aunque sean verdes, concentran entre dos y cuatro veces más calor que aquellos cubiertos por árboles o plantas altas; y hasta tres estudios sobre el mayor potencial de los bosques de bambú para capturar CO₂ frente a otras masas forestales.

Puedes seguir a MATERIA en Facebook, Twitter e Instagram, o apuntarte aquí para recibir nuestra newsletter semanal.

Seguir leyendo

]]>
PACO PUENTES
<![CDATA[La campaña electoral muta y los bulos se trasladan a las redes ]]>https://elpais.com/espana/elecciones-generales/2023-07-04/la-campana-electoral-muta-y-se-traslada-a-las-redes.htmlhttps://elpais.com/espana/elecciones-generales/2023-07-04/la-campana-electoral-muta-y-se-traslada-a-las-redes.htmlTue, 04 Jul 2023 06:47:03 +0000Las campañas ya no son lo que fueron hace 20 años. Las fórmulas de comunicación política han mutado y se han trasladado a otros espacios. Manuel R. Torres, catedrático de Ciencia Política de la Universidad Pablo de Olavide y miembro del consejo asesor del Real Instituto Elcano, lo resume: “Los sistemas convencionales, como el mitin, la propaganda y las comunicaciones a través de los medios, han perdido influencia frente a nuevas plataformas”. Varias investigaciones lo confirman. Una de ellas asegura que incluso el debate televisado, cuya propuesta de celebración ha centrado los primeros días de precampaña, “no parece cambiar el comportamiento del votante”. Las redes se han convertido en los principales medios de difusión, donde triunfan los mensajes emocionales o negativos. Aunque mantienen su hegemonía, la incorporación de sistemas de moderación para combatir la desinformación, no siempre de forma exitosa, ha provocado que los bulos se trasladen a aplicaciones de comunicación encriptada, como WhatsApp o Telegram, donde campan sin límites.

“El mitin, en su concepción original, era un espacio abierto para que cualquier interesado conociera las propuestas de un candidato de una forma directa. Eso ya quedó superado hace tiempo y, realmente, son actos de partido a los que solo van los ya convencidos y cuyo propósito es generar algún tipo de material para los informativos y para alimentar las redes sociales. Cada vez tiene más carácter de escenografía”, afirma Torres.

Y no solo el mitin. Ni siquiera el gran momento electoral que suponía el debate televisado ha sobrevivido a las nuevas formas de comunicación política, según una investigación publicada por la Universidad de Oxford el pasado marzo en The Quarterly Journal of Economics. Sus autores concluyen que las campañas electorales y los debates televisados tienen poco efecto en los votantes frente a otras fuentes, entre las que se incluyen los activistas políticos, redes y amigos, cuyos mensajes tienen más impacto.+

“A pesar de todo el interés que generan, la gran audiencia que atraen y los muchos comentarios de los medios que provocan, los debates televisados no parecen cambiar el comportamiento de voto

Caroline Le Pennec y Vincent Pons, universidades de Montreal y Harvard

Tras un análisis de 62 campañas electorales en 10 países, Caroline Le Pennec y Vincent Pons, de las universidades de Montreal y Harvard, han observado que “las preferencias políticas se mantienen notablemente estables a lo largo de la campaña”. Sobre los debates televisados, los autores observan que, “a pesar de todo el interés que generan, la gran audiencia que atraen y los muchos comentarios de los medios que provocan, no parecen cambiar el comportamiento de voto”.

Torres comparte las conclusiones: “El elector ya ha determinado su voto con bastante antelación, antes de la celebración de esos debates, y el porcentaje de votantes que se siente afectado por los resultados de esos encuentros es cada vez más reducido. También existe cierto consenso en que suelen estar más interesados en debatir aquellos candidatos que parten de una posición de derrota o necesitan aumentar su cuota de conocimiento. Los candidatos con una posición más ventajosa suelen ser más reacios a participar en los debates porque tienen poco que rascar ahí y, en cambio, si se produce algún tipo de incidente, como quedarse en blanco o una mala respuesta, le puede ocasionar un problema considerable”.

El candidato socialista, Pedro Sánchez, se fotografía con un móvil mientras otros militantes toman imágenes del mitin.

La pérdida de influencia de la campaña presencial, la propaganda y los medios convencionales ha derivado el debate hacia las redes, entre las que destacan Facebook, Twitter, TikTok y YouTube. Según un reciente estudio encabezado por tres psicólogos de la Universidad de Columbia y publicado en PNAS, “las redes sociales están a la vanguardia de las campañas políticas modernas”, en especial, con la polarización ideológica, que favorece el auge de las facciones más extremas.

“Los políticos necesitan todos los votos que puedan reunir para alcanzar y mantener mayorías, especialmente, porque los márgenes estrechos pueden decidir las elecciones. En este entorno ultracompetitivo, las plataformas de redes sociales se han convertido en una vía valiosa para que los políticos lleguen a sus electores y para que los electores difundan los mensajes de los políticos”, defienden los autores.

Los mismos investigadores identifican un problema con este modelo. Ciertos patrones de lenguaje llevan a los usuarios de las redes sociales a amplificar, es decir, a respaldar públicamente (”favorito”) y compartir (“retuitear”) el contenido político más destructivo. Estos patrones no son ajenos a la polarización, sino que la alimentan, ya que los mensajes más exitosos son aquellos contra los grupos oponentes, los negativos o los que apelan a emociones desfavorables. “Los políticos pueden aumentar sus posibilidades en elecciones muy disputadas al llegar a partidarios de ideas afines y motivarlos a actuar”, concluyen.

Torres coincide en que los contenidos con más capacidad de propagación son negativos, apelan a sentimientos de venganza y rencor y ridiculizan al adversario. “Eso afecta a la comunicación de los partidos y de los actores políticos y lo vemos hasta en escenarios más propicios para la formalidad, como el Congreso de los Diputados o en los debates televisados”, añade.

Una militante toma una foto del candidato del PP, Alberto Núñez Feijóo, durante un mitin en Valencia.

En ese caldo de cultivo se gestó la viralización de la desinformación, contra las que algunas plataformas han intentado poner coto con medidas de mediación. Sin embargo, un trabajo difundido el pasado octubre por Global Witness y el grupo Ciberseguridad para la Democracia, de la Escuela de Ingeniería Tandon (Estados Unidos), considera que “TikTok aprobó el 90% de los anuncios con desinformación electoral engañosa y falsa y Facebook permitió un número significativo de publicidad igualmente inexacta y falsa”.

YouTube, según la investigación, sí eliminó estas informaciones. Sin embargo, la política de la plataforma empieza a cambiar, según ha anunciado esta en su blog: “Instituimos una disposición de nuestra política de desinformación electoral centrada en la integridad de las pasadas elecciones presidenciales de los Estados Unidos, en diciembre de 2020. Dos años, decenas de miles de eliminaciones de vídeos y un ciclo electoral después, es hora de reevaluar los efectos de esta política en el panorama cambiante de hoy. En el entorno actual, encontramos que, si bien la eliminación de este contenido frena cierta información errónea, también podría tener el efecto no deseado de restringir el discurso político sin reducir significativamente el riesgo de violencia u otros daños en el mundo real. Con eso en mente, y con las campañas de 2024 en marcha, dejaremos de eliminar el contenido que promueva afirmaciones falsas de que ocurrieron fraudes, errores o fallos generalizados en las elecciones presidenciales de 2020 y otras elecciones presidenciales pasadas de los Estados Unidos”.

Durante años, hemos visto procesos democráticos clave socavados por la desinformación, las mentiras y el odio que se difunden en las plataformas de redes sociales.

Jon Lloyd, consejero de Global Witness,

“Durante años”, según Jon Lloyd, consejero de Global Witness, se han visto “procesos democráticos clave socavados por la desinformación, las mentiras y el odio que se difunden en las plataformas de redes sociales. Las propias empresas incluso afirman reconocer el problema. Pero la investigación muestra que simplemente no están haciendo lo suficiente para detener las amenazas a la democracia que surgen en sus plataformas”.

“No han empezado a actuar de manera proactiva hasta que la magnitud del problema que generaba la difusión de contenido de falso y la desinformación adquirió dimensiones preocupantes”, explica Manuel R. Torres. “Estas plataformas”, añade, “no solo se deben limitar a regular el espacio y atender las denuncias, sino que deben tener una actitud proactiva, llevar la iniciativa y no reaccionar simplemente cuando el problema está generado”.

El catedrático de Ciencia Política cree que estas plataformas se debaten entre su modelo de negocio (búsqueda de audiencia) y la necesidad de evitar, según sus palabras, “un territorio salvaje donde todo este tipo de prácticas nefastas, que son tan perjudiciales para la democracia, puedan desarrollarse”.

Hay todo un subsuelo de desinformación que no está al alcance de la vista, sin moderadores o la verificación de los periodistas. No sabemos qué se está moviendo en ese espacio que se entiende que es privado, pero que tiene una enorme influencia para determinar el comportamiento de los ciudadanos

Manuel R. Torres, catedrático de Ciencia Política de la Universidad Pablo de Olavide

Aunque no han sido totalmente eficaces, la moderación de contenidos consiguió que la cantidad de información falsa y extremadamente sesgada disminuyera entre 2016 y 2020, según un análisis del profesor de Ciencia Computacional Boleslaw Szymanski a partir de los mensajes difundidos por Twitter antes de que Elon Musk adquiriera la plataforma.

Sin embargo, a esta disminución de contenidos falsos en plataformas le ha seguido un auge de los mismos mensajes en aplicaciones cifradas y sin moderación, como WhatsApp o Instagram, ideadas inicialmente para la comunicación interpersonal, pero que están siendo utilizadas como redes sociales.

“Determinados perfiles que distribuyen información falsa de manera sistemática se han visto bloqueados o expulsados y han recurrido a las plataformas que se supone que son de comunicación directa entre usuarios, pero que al final tiene funcionalidades también de distribución masiva o, al menos, de llegar a mucha gente”, explica Manuel R. Torres. “Hay todo un subsuelo de desinformación que no está al alcance de la vista, sin moderadores o la verificación de los periodistas. No sabemos qué se está moviendo en ese espacio que se entiende que es privado, pero que tiene una enorme influencia para determinar el comportamiento de los ciudadanos”, concluye.

Szymanski ha detectado también la proliferación de influencers supuestamente independientes. “Surgieron de la oscuridad”, advierte el profesor, quien considera que estos, “incluso sin enviar noticias falsas y simplemente propagando hechos unilaterales seleccionados, pueden crear un mosaico que no es real”.

En España, la Ley de Comunicación Audiovisual quiere regular la actividad de influencers, streamers, tiktokers y youtubers a través de un registro que permita su seguimiento y si cumplen la obligación de proteger a la audiencia de contenidos que inciten al odio y la violencia o el acceso a contenidos pornográficos.

Puedes escribir a rlimon@elpais.es y seguir a EL PAÍS Tecnología en Facebook y Twitter o apuntarte aquí para recibir nuestra newsletter semanal.

Seguir leyendo

]]>
Alejandro Ruesga
<![CDATA[Guillermo Antiñolo, ginecólogo y genetista: “La mujer envejece a doble velocidad por la falta de estrógenos”]]>https://elpais.com/ciencia/2023-07-03/guillermo-antinolo-ginecologo-y-genetista-la-mujer-envejece-a-doble-velocidad-por-la-falta-de-estrogenos.htmlhttps://elpais.com/ciencia/2023-07-03/guillermo-antinolo-ginecologo-y-genetista-la-mujer-envejece-a-doble-velocidad-por-la-falta-de-estrogenos.htmlMon, 03 Jul 2023 05:52:32 +0000Guillermo Antiñolo, granadino de 66 años, considera que la mujer es “el sur hecho carne”. Detrás de esta poética definición hay décadas de dedicación a la salud femenina como catedrático de Obstetricia y Ginecología, director hospitalario del departamento de Medicina Materno Fetal, Genética y Reproducción e investigador del genoma, el conjunto completo de material genético contenido en los cromosomas de un organismo. Si se consideran los genes como las piezas de un puzle, el genoma es la imagen completa formada por todas ellas. Pero, aunque los humanos compartamos un alto porcentaje de esa fotografía general, cada individuo es diferente y en esa variabilidad de pequeñas piezas están las claves de la salud.

Hasta ahora se ha dibujado una imagen general de cómo debe ser el genoma humano, esa fotografía que permite montar el puzle o detectar piezas erróneas, que sobran o faltan. Sin embargo, mujeres y hombres son biológicamente diferentes y faltan modelos específicos femeninos que permitan identificar biomarcadores singulares, variantes genómicas asociadas a un rasgo de utilidad clínica, que expliquen, por ejemplo, causas de infertilidad, endometriosis y algunos tipos de cáncer o abordar de forma específica etapas como el embarazo, el climaterio o la menopausia. Identificarlos, advierte Antiñolo, posibilitaría avances en términos de salud, bienestar social y psicológico, así como en la eficiencia del sistema sanitario.

Este es el proyecto “crepuscular”, según lo define el investigador, en el que se ha embarcado el científico granadino, incluido en la lista de los 100 mejores médicos de España. Con la colaboración de Clínicas y Fundación Ginemed, su equipo ha reunido material genético de 1.000 féminas sanas y ha secuenciado 300 con el fin de elaborar el primer genoma médico de la mujer. Las imágenes de la variabilidad genómica femenina servirán de referencia a la hora de abordar patologías o procesos fisiológicos asociados a su condición biológica. Aún le falta financiación (entre 300.000 y 500.000 euros) para culminar esta primera fase que, según dice, tendrá aplicaciones “enormes”.

Pregunta. ¿Cómo surge el proyecto del primer genoma médico de la mujer?

Respuesta. Los ensayos clínicos se hacen en hombres y su información se traslada a las mujeres. Pero ellas, desde el punto de vista biológico, al igual que en el resto de los mamíferos, están diseñadas para ser madres y tienen una obsolescencia programada que tiene que ver con la pérdida de su función ovárica. Esto no todo el mundo lo contempla, pero es una realidad fundamental. La infertilidad en la mujer o el climaterio tienen que ver con la función ovárica, con la producción de estrógenos: dejan de fabricar ovocitos y de ser madres potenciales y ya no producen estrógenos. Pero resulta que los estrógenos son el eje central de su metabolismo y por eso las mujeres envejecen de una forma distinta: lo hacen a doble velocidad por la falta de estrógenos. Algunos cánceres y enfermedades metabólicas también tienen que ver con el fallo de la función ovárica. La mujer que sirva como modelo genómico debe tener intacta su función ovárica y sus estrógenos funcionando de manera fisiológica normal. Esto puede parecer una cosa obvia, pero no lo es cuando hablamos de controles de la variabilidad genómica de la mujer.

Las mujeres, desde el punto de vista biológico, al igual que en el resto de los mamíferos, están diseñadas para ser madres y tienen una obsolescencia programada que tiene que ver con la pérdida de su función ovárica”

P. Pero el genoma femenino se ha secuenciado

R. Los genomas de referencia femeninos no reflejan sus condiciones basales [funciones orgánicas]. El nuestro es el primero que contempla la función ovárica normal como uno de los elementos centrales de la variabilidad genómica. Hemos generado una cohorte de casi 1.000 personas a las que se puede seguir a lo largo del tiempo, pero que parten de una condición básica y fisiológica de la mujer. Eso no se ha hecho nunca.

P. ¿Por qué no se ha hecho antes?

R. Hay un problema de información fragmentada. La mitad de los datos que tenemos son de mujeres, sí, pero no es lo mismo, porque el fenotipo se mira igual que al de los hombres y la fertilidad tiene mucho que ver con su salud integral y eso es determinante. Nuestro abordaje pretende establecer una variabilidad genómica de referencia de mujeres que son estrictamente normales, con la función ovárica normal.

La fertilidad tiene mucho que ver con la salud integral y eso es determinante”

P. ¿Qué aplicaciones tiene esta normalidad femenina para el genoma de referencia?

R. . Por ejemplo, a la hora de identificar una secuencia de genes que podría derivar en una patología. Ahora tenemos un marco de referencia, unas normas canónicas, un modelo de Vitruvio [el dibujo de Leonardo da Vinci sobre la proporción ideal de una figura humana] que es fundamentalmente androcéntrico, como casi toda la medicina, y no contempla la fisiología de la mujer como un elemento diferenciador. Yo busco que nuestro modelo sea la “perfección” en variabilidad genómica para que, cuando se compare con el de una mujer con esterilidad, cáncer, enfermedad cardiovascular u otra, nuestro genoma de referencia sea el de mujeres que arrancaron normales su vida, con unas condiciones basales idénticas basadas en que su funcionamiento ovárico es normal. Estamos trabajando para generar una cohorte mayor y que otros grupos internacionales entren con el mismo concepto holístico de mujer. No en el concepto que los hombres tenemos de las mujeres o de su salud, o que incluso las mujeres tienen de su propia salud, porque no contemplan esto como un hecho diferencial.

P. ¿Las mujeres no son conscientes de este hecho diferencial?

R. Es un determinante de la salud que se relaciona con problemas de salud en la segunda edad de la vida o en la tercera, cáncer, obesidad, metabolismo, climaterio anticipado, menopausia… Pero somos androcéntricos. Incluso las mujeres, a veces, son androcéntricas en términos de salud y llevan toda su vida contemplando esto como un elemento normal. Se olvidan de la biología porque hemos entrado a un mundo esencialmente social y económico, pero en términos de salud, la biología importa muchísimo: son madres y tienen una obsolescencia programada. Las mujeres viven más tiempo porque tienen menos hábitos tóxicos que los hombres a fecha de hoy, pero su longevidad será cada vez más similar a medida que adquieran los mismos hábitos tóxicos. Pero yo no hablo solo de durar sino de vivir. Son dos conceptos distintos. Vivir, la calidad de vida, las enfermedades y la respuesta a estas las determina la función de los estrógenos.

No hablo solo de durar sino de vivir. Son dos conceptos distintos. Vivir, la calidad de vida, las enfermedades y la respuesta a estas las determina la función de los estrógenos”

P. ¿Quiere decir que la mujer dura más, pero vive con peor calidad de vida?

R. Básicamente, porque no tiene estrógenos y estos determinan todos los cambios de su segunda edad. Las mujeres envejecen a doble velocidad que los hombres a partir del climaterio, a partir de que pierden los estrógenos. La terapia hormonal sustitutiva en la segunda parte de la vida no sirve para todas las mujeres. Es una terapia que tienes que personalizar. Pero es un cambio radical de la perspectiva de la mujer y de la perspectiva de su salud. Los estrógenos determinan el metabolismo normal de la mujer, son centrales para el desarrollo cognitivo, para la función inmunológica, para la cardiovascular, la hiperlipidemia o la atrofia vaginal.

P. ¿Se pueden corregir los problemas asociados al climaterio?

R. Ahora se trata a las mujeres con estrógenos, simulando la función biológica sin el componente ovárico, que hoy es irreemplazable. En la diabetes, a nadie se le ocurre sustituir la insulina y decirle al paciente que haga gimnasia y vaya al psicólogo. A las mujeres le dicen todo tipo de cosas porque el climaterio se considera normal, pero el envejecimiento saludable es un concepto completamente diferente y no se consigue solo con gimnasia o yendo al psicólogo.

En la diabetes, a nadie se le ocurre sustituir la insulina y decirle al paciente que haga gimnasia y vaya al psicólogo. A las mujeres le dicen todo tipo de cosas porque el climaterio se considera normal, pero el envejecimiento saludable es un concepto completamente diferente y no se consigue solo con gimnasia o yendo al psicólogo”

P. ¿Cómo va el proyecto?

R. Tenemos ya datos de 1.000 mujeres, pero hemos secuenciado una parte porque nos quedamos sin financiación. Estoy esperando que salgan proyectos ahora y buscando que la iniciativa privada sea capaz de financiar programas que tienen que ver con la mujer. Es posible que este proyecto lo presente en el Parlamento Europeo como una visión diferente también de la ciencia. La colaboración con Ginemed ha sido definitiva porque tienen un programa de donación de ovocitos, de donantes de óvulos que es crítico porque ellas son perfectas desde el punto de vista de lo que yo andaba buscando: una función ovárica normal. Tenemos una información clínica que, de otra forma, no tendríamos y una seguridad de que esta tiene que ver con fertilidad. Los datos se han puesto en IMPaCT [Infraestructura de Medicina de Precisión asociada a la Ciencia y la Tecnología] y tenemos un Beacon [una herramienta rápida de búsqueda de variantes genómicas], el primero en el mundo sobre genoma de la mujer con estas características para comparar una secuencia anónima con una variación que puede estar relacionada con una enfermedad. Si tiene una repercusión clínica o pensamos que la puede tener, entonces podemos abrirnos a un espacio de colaboración. Para culminar por lo menos la primera fase española se precisarían entre 300.000 y 500.000 euros.

El genetista Guillermo Antiñolo es también investigador en el Instituto de Biomedicina de Sevilla (IBIS).

P. ¿En qué se puede utilizar el genoma médico de la mujer?

R. Las aplicaciones inmediatas son enormes. En problemas a corto plazo de la mujer, como la endometriosis, por ejemplo, o para generar farmacogenómica para fertilidad o algunos problemas relacionados con la salud de la mujer. Más adelante veremos cómo se pueden aplicar a la enfermedad cardiovascular u otros. Pero para eso necesitaremos muestras de mujeres que tienen el problema y nosotros solo hemos trabajado para generar un patrón. Tendremos que ver cómo encajan en ese patrón diferentes patologías de la mujer. Pero quiero insistir en una cosa muy importante para mí: no hablamos solo de una patología específica de la mujer, que es sumamente importante. Muchos de los problemas se relacionan con la función de estrógenos y la función ovárica de la mujer fisiológicamente normal. Más adelante, nos pueden facilitar dianas terapéuticas al conocer cómo el patrón genómico se comporta en patologías específicas. Ahora estamos empezando un proyecto donde, a partir de los genomas de referencia que hemos establecido, vamos a hacer un estudio para determinar elementos que hacen predecir el riesgo desde el inicio del embarazo. Si tenemos marcadores genómicos que nos comparan nuestra población de referencia absolutamente normal con mujeres que ya tienen un problema de fertilidad, seguramente vamos a encontrar cosas que nos permitan incluso anticiparnos y establecer elementos accionables, que se puedan tratar.

Cuando la mujer llega al climaterio se transforma toda su fisiología y se trata de que envejezca como los hombres”

P. ¿Tanta es la diferencia con el hombre?

R. Cuando la mujer llega al climaterio se transforma toda su fisiología y se trata de que envejezca como los hombres. Estos tienen andropausia, pero no tiene nada que ver. Su funcionamiento es completamente diferente. Los andrógenos son importantes para todos, también para la mujer, pero no establece un ciclo de la vida como los estrógenos en la mujer. Nosotros envejecemos por nuestros hábitos, con nuestras historias por la vida sedentaria, igual que ellas, pero la mujer envejece, además, porque pierden su centralidad fisiológica. Intento crear un Metoo [el movimiento feminista] genómico, trasladar a la centralidad, al contexto general de la ciencia, que las mujeres no son como nosotros, pero con otro aspecto. Necesitan un abordaje distinto. Lo que he querido hacer con esto es poner sobre la mesa que necesitamos una referencia diferente, desde su campo, no desde el nuestro, ni siquiera desde el campo general de la ciencia, porque las mujeres son diferentes desde una visión esencialmente biológica. Debe ser una tendencia que la ciencia incluya a las mujeres en sus proyectos de forma holística y desde su biología normal, no de la forma que se ha hecho hasta ahora.

Puedes escribir a rlimon@elpais.es y seguir a MATERIA en Facebook, Twitter e Instagram, o apuntarte aquí para recibir nuestra newsletter semanal.

Seguir leyendo

]]>
PACO PUENTES