
Fernando Davara, Militar y doctor en Ingeniería Informática
«Existe una nueva forma de guerra psicológica que permite ganar en el ciberespacio sin disparar»Secciones
Servicios
Destacamos
Fernando Davara, Militar y doctor en Ingeniería Informática
«Existe una nueva forma de guerra psicológica que permite ganar en el ciberespacio sin disparar»El estudio de los dominios del ciberespacio ha ocupado durante más de cuarenta años la atención de Fernando Davara (Madrid, 1945). General de brigada de ... artillería retirado y doctor en Ingeniería Informática, ha trabajado en el Estado Mayor de la Defensa y durante seis años dirigió el Centro de Satélites de la Unión Europea. Estuvo destinado en Valladolid hasta 1982, capital en la que decidió afincarse definitivamente en 2020, durante la pandemia. «Es una ciudad que ofrece una gran cantidad de oportunidades, de calidad de vida y cultura, así que preferí quedarme aquí», resume quien en la actualidad preside la Fundación España Digital y conoce de cerca lo que depara el presente en materia de ciberseguridad, un asunto sobre el que este martes impartió una conferencia en una sesión del Ateneo en la Casa Revilla. El título, 'Inteligencia Artificial ¿controlamos o seremos controlados?'.
-¿Cuánto hay de oportunidad y de amenaza en las nuevas tecnologías que aventuran drásticas transformaciones?
–De Inteligencia Artificial se habla mucho, aunque existe un gran desconocimiento. Compruebo, por ejemplo, que ChatGPT se está utilizando demasiado como herramienta sin conocer que tiene grandes oportunidades pero también riesgos y desafíos. Hoy en día lo que llamamos IA está en la adolescencia, en fase de principio a pesar de todo lo que parece que hay. El siguiente paso será hacia una inteligencia artificial general que quiere replicar nuestro pensamiento, emular capacidades cognitivas de los humanos. Pero también, aunque aún en un plan muy especulativo, se está hablando de la IA superior que, si se llega a ella, superará las capacidades humanas en todos los aspectos.
Fernando Davara
–¿Qué supondría la implantación de esta IA superior?
–Que sería una IA con capacidad para la creatividad, la comprensión de causa y efecto, pero también podría pensar para qué servimos los humanos si somos inferiores a ella. Suelo poner un ejemplo: Si llegamos a disponer de esta IA superior y se plantea una solución para el cambio climático, como los humanos somos uno de los problemas, podría decidir que sobramos. Es un ejemplo simple pero peligroso de lo que yo llamo riesgos existenciales. Que se plantee que no existamos. Ahora estamos en el desarrollo de la IA denominada estrecha, consistente en acceder a todo tipo de información, tiene gran capacidad de cálculo, no se fatiga, no tiene emociones, autoconciencia ni intuición. Supera a la inteligencia humana en tareas específicas, pero carece de nuestro pensamiento y conciencia. La diferencia con la IA general que llegará en unos años es que esta combinará capacidades cognitivas humanas, sería capaz de aprender, razonar, aplicar conocimientos al azar..., buscaría replicar nuestro pensamiento. Y por último, la IA superior es la que trataría de superar la capacidad humana en todos los aspectos, sobrepasaría nuestra capacidad intelectual, ahí está el peligro de que podríamos llegar a situaciones de película como 'Matrix', donde se plantee para qué se necesita a un ser humano si lo que hace es estorbar.
Noticia relacionada
–¿Qué prevenciones tiene hacia el creciente uso de programas como ChatGPT?
–En el mundo académico es difícil no encontrar un trabajo de máster o fin de grado hecho con esa herramienta, ya sea de Google, china o de otra procedencia. También muchas empresas lo hacen sin ser conscientes de los peligros que pueden venir si prescindimos de principios éticos y morales. Aunque parezca mentira, nos estamos jugando el futuro de la humanidad. Posiblemente yo no llegaré a verlo, pero si no somos capaces de implementar el control humano, estaremos perdidos. Para muchos ChatGPT es el becerro de oro, muchos piensan que es infalible. En la Universidad estamos viendo que muchos trabajos están hechos en un 80% con ese chatbot de Inteligencia Artificial pero ¿dónde está lo que aporta el alumno?
–Cada vez se habla más del perfeccionamiento de la IA.
–Y poco de que no es infalible, se puede equivocar. De hecho, yo siempre suelo hacer un ejercicio que lo demuestra: Si decimos a ChatGPT que nos dibuje una foto de un reloj que marque las 12:03 horas, me dibujará uno que marca las 10:10 porque el 99% de los relojes de Internet muestran esa hora al ser la más adecuada para publicitarlo, pues se ve todo el reloj, con lo cual la IA no es capaz de discernir lo que estoy diciendo. Hay un test estadounidense que muestra hasta un 60% de fallos cuando a los sistemas de open IA se les obliga a combinar razonamiento lógico con colores. Si a eso añadimos los sesgos en el desarrollo de algoritmos, surge el verdadero peligro, el de creer que tenemos una herramienta que nos permite hacer todo sin que tengamos que pensar ni razonar.
–¿En qué medida somos más vulnerables ante el uso indiscriminado de tecnología?
–La tecnología es un medio, no un fin. Ahora mismo en la adolescencia se ha convertido en un fin y eso es un peligro grave para la raza humana. Ahora vemos como algo anecdótico que los chavales chateen entre ellos mismos sentados en un banco, pero es un acto que en determinadas situaciones tiene tanta influencia como para provocar suicidios por acoso. En los colegios siempre hubo acosos, pero no tenían una trascendencia tan grande como la que hoy ofrece la tecnología. Un grupo de chavales comunicándose a través de wasapo o Instagram se está dejando influir muchísimo por lo que les están contando. Si eso lo llevamos al acoso, resulta exponencial.
–¿A qué riesgos nos enfrentamos en materia de ciberseguridad en un contexto en el que países como Rusia interfieren en procesos electorales?
–Es muy difícil defenderse. Aquí no hay fronteras ni regulaciones. Puedo tener un servidor en Estados Unidos con leyes diferentes a las de la UE, hay mucho anonimato, resulta muy difícil saber quién es responsable de algo y la influencia en la población es enorme. He escrito un artículo sobre el futuro de los conflictos en el que alerto de que existe una forma nueva de guerra en la que, sin disparar, puedo ganar al adversario: la guerra cognitiva, psicológica, de opinión pública y de medios sociales manipulando la visión de la realidad. Con ella se puede desarmar a una población completa. Es lo que está haciendo china con Taiwán. Guerra psicológica, cognitiva. ¿Cómo nos defendemos de eso? Es muy difícil. Habría que formar y concienciar a la gente de lo que supone la tecnología y de los peligros que entraña. Esto se da no solo en el mundo de la ciberseguridad, a diario vemos cómo el relato y la opinión se están imponiendo a la verdad.
¿Ya eres suscriptor/a? Inicia sesión
Publicidad
Publicidad
Te puede interesar
Publicidad
Publicidad
Esta funcionalidad es exclusiva para suscriptores.
Reporta un error en esta noticia
Comentar es una ventaja exclusiva para suscriptores
¿Ya eres suscriptor?
Inicia sesiónNecesitas ser suscriptor para poder votar.