sábado, 12 de diciembre de 2020

"ÉTICA PARA MÁQUINAS", José Ignacio Latorre. Star Trek y otras notas para los humanos

En el desenlace final de la película "Némesis, Stark Trek número 10", el androide Data es destruido. El cuadro de mando del Entrepise brinda por su honor, recordándole como si de un humano se tratase, pero tendrá un sustituto, un nuevo Data. 

Al comienzo de la historia, el Entreprise recupera de un planeta lejano los restos de un androide. Se llama B-4 y es idéntico a Data, pero una versión más antigua, tal vez un prototipo. B-4 será un personaje clave en la aventura que no quisiera desvelar. Salto a los minutos finales. Después de la desaparición de Data, el capitán Picard ordena reprogramar a B-4 para convertirlo en el nuevo Data. Inicialmente, el prototipo se expresa con tartamudez e inseguridad, unos pequeños tics demuestran que la adaptación y los ajustes de los recientes engramas requieren su tiempo. 

El capitán Picard recibe en su despacho al nuevo tripulante en su despacho para darle la bienvenida y recordar al antiguo compañero. Esta es la conversación entre ellos:

Picard: - No sé si todo esto ha tenido sentido, pero quería que supiera que clase de hombre era (refiriéndose a Data). En su búsqueda por parecerse a nosotros, nos ayudó a ver qué significa "ser humano".
Data - Mi ... mi, mi hermano, no era humano.
P:- No. No lo era, pero su asombro, su curiosidad por todas las facetas de la naturaleza humana nos permitió a todos ver lo mejor de nosotros mismos. Él evolucionó, abrazó los cambios, porque siempre quiso ser mejor de lo que era.
D. - No... no lo logro entender.
P: - Espero que algún día lo entienda.

La pregunta nos asalta de inmediato. ¿Los androides y su inteligencia nos hará más humano?, ¿lo hará la Inteligencia Artificial?.

Similares dudas y planteamientos se pueden encontrar en el libro de José Ignacio Torre: "Etica para máquinas". Es un libro sencillo, ligero y fácil de leer. No pretende profundizar en los temas expuestos y así lo expresa el autor en la introducción. Quiere proponerlo como unas conversaciones en un recogido café otoñal o de cerveza durante una tarde veraniega: "se trata de una charla abierta de esas a los que a todos los gusta entregarnos con pasión"..."La reflexión compartida afina nuestro discurso" pero "... con medida y criterio".
La parte 1 y 2, "Maquinas sin alma" y "Máquinas que parecen inteligentes" nos muestra un recorrido histórico hasta el presente. Los últimos hitos corresponden a los Sistemas Expertos, Inteligencia Artificial, robots y el transhumanismo.
Las partes 3, 4 y 5 nos abren el camino hacia las incertidumbres futuras: "Ética para máquinas", "Máquinas que nos superarán" e "Imitar el alma". La conversación del capitán Picard con el nuevo Data se encuadra en los contenidos de la quinta parte del libro.

Abordar las cuestión del alma es compleja, escurridizo y escapa a las pretensiones del libro. Pero el autor destaca unas cualidades comunes que le "atribuyen filósofos, teólogos, humanistas" y se encuentra en todas las religiones. Incluso cualquier persona de la calle nos ofrece la misma imagen. "El alma es el origen de la bondad, el motor de hacer el bien, de ser generosos, benévolos, solidarios...", "el alma transforma a la especie humana". Si nos vamos al lado opuesto, el significado de "desalmado" es inhumano y cruel. Partiendo de esta premisa, el objetivo sería dotar a las máquinas de "de alma", algo que, expuesto así, de sopetón, povoca rechazo, burla, incredulidad o desconfianza. El fin sería llevar la relación hombre-máquina a una categoría superior. Esta convivencia entre humanos y máquinas es la que dice Picard sobre Data: "nos ayudó a ser humanos", "a ver lo mejor de nosotros mismos".

Volviendo al término "desalmado", se refiere a una persona sin conciencia del bien y del mal. Dotar a las máquinas de alma, es también ¿incorporar conciencia?. Según Latorre, esta distinción entre el bien y el mal que debe regir las acciones de la Inteligencia Artificial y sus consecuencias, es el punto de reflexión en el cual estamos inmersos actualmente. Recordemos el dilema sobre la conducción de coches autónomos, (ya con entrada en la propia Wikipedia), dada su importancia en esta tecnología. Si estamos inmersos en este dilema, "¿cuántos más se nos presentarán?". Existen muchos y debe existir una base ética que ayude, así lo plantea la Latorre.

El problema, insiste en ello Latorre, como sociedad es que deberíamos reflexionar detenidamente sobre las atribuciones éticas que tendríamos incorporar a la Intenligencia Artifial, pero mientras tanto, las grandes corporaciones, los gobiernos, siguen desarrollando sistemas dirigidos hacia sus propios intereses, que puede que no coincidan con el resto de la sociedad como conjunto o con las personas como individuos.

En fin, el debate es profundo y complejo. El deslumbrón novedoso con el que despertamos cada día esconde entre las sombras consecuencias que nos afectarán en el futuro y tal vez no sean fácilmente reparables. El libro de Latorre es una buena guía para adentrarse en todos los recovecos en que se encuentra el desarrollo e implantación de la Intenligencia Artificial.

Uno de los hitos futuros de la IA es la irrupción de la Singularidad. Será el momento en el que la IA prescindirá de los humanos. Ella será capaz de desarrollarse, fabricarse, modificarse y mejorarse, sin intervención de ingenieros, técnicos, administrativos, transportistas... Si Data es tan inteligente, ¿por qué sigue sometido a las órdenes del capitán Picard?, ¿no es capaz de gobernar la nave mejor que los humanos?, ¿no habrá llegado al punto de la singularidad?.

Como remate final, aquí unas conferencias de Latorre en la presentación de su libro y otros enlaces de interés.   

Conferencia en la Fundación Telefónica.

Presentación del libro. José Ignacio Latorre. Ética para máquinas.

Tech Society. José Ignacio Latorre.

 

Tech & Society: José Ignacio Latorre. "Ética para máquinas"

 

Tech & Society: Entrevista a José Ignacio Latorre

Conferencia completa de José Ignacio Latorre en el Club Ultima Hora 

José Ignacio Latorre: «No podemos dejar en manos de las corporaciones la ética de las máquinas»

 

 Conferencia completa

Conferencia en el Ágora con José Ignacio Latorre y David Casacuberta. The Valley

Conferencia

Entrevistas al autor

Entrevista en TVE a J.I. Latorre, autor de Ética para máquinas

Otros temas interesantes relacionados con el libro.

   ¿Sirve de algo hablar ahora de la ética de las máquinas inteligentes? "Muy Interesante" 

Red de investigaciones filosóficas José Sanmartín Esplugues. Universidad Católica de Valenicia San Vicente Mártir.
Reseñas de libros de filosofía
María Díaz del Rey: "J. I. Latorre (2019). Ética para máquinas. Barcelona: Ariel"

La Comisión Europea sobre la IA

"Directrices éticas para una IA fiable". Autor(es) colectivo(s): Dirección General de Redes de Comunicación, Contenido y Tecnologías (Comisión Europea)

Foro Próximo Futuro

Etica y Tecnología, ciclo de debates.

Algunos artículos en la revista Telos

Antonio Orbe "Inteligencia Artificial y futuro próximo"

Revista Telos nº 108. Cuaderno central: "Humano digital"

          Antonio Diéguez: "Transhumanismo, propuesta y límites"

          Juan M. Zafra. Amber Case: "Los Robots sirven para que podamos ser más humanos"

Revista Telos nº 109. Cuaderno central: "Tecnoética"

Sobre Star Trek: Némesis y B-4

 L. F. Real

 


viernes, 30 de octubre de 2020

Evitar ataques APT con sistemas SWG, SEG y ATD (parte I)


Los complejos ataques Advanced Persistent Threat, APT, exigen herramientas de defensa más precisas y refinadas. Tres tecnologías están destinadas analizar el servicio web, el servicio de correo y verificar código sospechoso en un entorno virtualizado. Son Secure Web Gateway (SWG), Secure Email Gateway (SEG) y Advanced Threat Defense (ATD) respectivamente. En este artículo se repasan sus características y funcionamiento.


En la revista Antena
número 196 (editada por el Colegio Oficial de Ingenieros Técnicos de Telecomunicación) dediqué un artículo a los ataques conocidos bajo el nombre APT ( (“Introducción a ciberataques APT, Advanced Persistent Threat”, Antena nº 196). Describimos las características particulares de este tipo de ciberataques y algunos casos conocidos que han pasado a la historia. En aquel artículo se exponían los cambios necesarios en la organización y en los procesos de seguridad para hacer frente a los ataques APT. En estas páginas vamos a tratar un conjunto de herramientas hardware y software que ayudan a evitar, aunque en realidad lo correcto sería decir dificultar, este tipo de ataques.


Las soluciones organizativas, técnicas y operativas de seguridad que pueden implementarse dependerán de las necesidades del negocio de cada una de las organizaciones, sus recursos disponibles, las inversiones y los gastos que pueda afrontar. Los diseños que faciliten las arquitecturas modulares y el escalado, favorecerán que las soluciones se adecuen a los requisitos del negocio actuales y también puedan adaptarse a los cambios futuros.
Los dispositivos descritos en este artículo forman parte de los conjuntos de sistemas que los fabricantes proponen para hacer frente a cualquier ciberataque, incluidos los complejos ataques APT.

Coevolución del malware y los sistemas de defensa

Las amenazas combinan múltiples elementos malware y sofisticados mecanismos de acceso. Estas son cada vez más complejas y evasivas y capaces de eludir las sólidas defensas. Las actuaciones de los ciberdelincuentes van siempre un paso por delante de las protecciones que deberían evitarlas.

Los sistemas de defensa y prevención también son cada vez más complejos y se diseñan exclusivamente para estos fines. Las relaciones que se establecen entre estos sistemas han llevado a crear el concepto de “ecosistema de seguridad” donde, al igual que ocurre en la naturaleza, se establecen relaciones interdependientes entre los distintos elementos. Pero como ocurre en las relaciones del mundo natural, los pequeños cambios o alteraciones de un elemento pueden traer consecuencias imprevistas en unos o magnificadas en otros. 

Si nos centramos en reforzar la seguridad del acceso a la intranet corporativa de la organización, comprobamos que los dispositivos que podemos utilizar son muy variados, ubicuos y móviles. Podemos acceder desde ordenadores de sobremesa, portátiles, teléfonos inteligentes o “tablet”; por redes cableadas, inalámbricas o telefónicas. Los puntos de conexión pueden estar dentro del edificio de la organización; lugares públicos como los hoteles o las estaciones; o privados como las viviendas u otras oficinas. Los perfiles y privilegios de los usuarios son también muy diferentes. Un perfil de invitado puede estar dentro de la oficina o fuera de ella; los empleados con privilegios altos pueden trabajar en remoto desde lugares más o menos inseguros. A pesar de todo este panorama heterogéneo, cada respuesta y autorización de una solicitud de acceso debe ser casi inmediata, verificando, además, el cumplimento de las políticas de seguridad que la organización haya aprobado junto con otros cumplimientos legales obligatorios. 


Dispositivos físicos o sistemas virtuales

La primera diferencia entre las soluciones que nos ofrecen los fabricantes es la división entre dispositivos físicos “appliances” o virtuales. La primera opción es un dispositivo electrónico protegido en una caja, con sus conectores y toma de alimentación propia. Incorpora los soportes para ser “enrracado” (una españolización que se puede traducir como acoplamiento en un “rack”) en los bastidores y armarios de los centros de datos. La segunda es un software instalable en diferentes modelos de servidores como pueden ser los servidores “blade” que también están en los centros de datos. Ambas soluciones pueden convivir juntas con alto grado de interoperabilidad, sobre todo si son productos del mismo fabricante.

Los fabricantes suelen ofrecer ambas posibilidades. La elección depende, sobre todo, de la magnitud del objeto de análisis, la capacidad y el rendimiento que se exija al dispositivo y los presupuestos para la inversión y mantenimiento.

Arquitectura de una red dedicada a la seguridad

Para conseguir mejorar los resultados de las soluciones de defensa, la tendencia es crear una arquitectura de red dedicada exclusivamente a la seguridad. Una red donde se intercambian información los diferentes dispositivos de seguridad, generalmente mediante protocolos exclusivos. Se construye una red paralela a las redes habituales de negocio. 

Una red dedicada a la seguridad ofrece las siguientes ventajas:

  •  La seguridad se puede extender por áreas de protección; desde los puntos finales de los usuarios y la red perimetral hasta los Centros de Procesos de Datos. La división en áreas facilita que la protección se adapte a las zonas más vulnerables.
  • Evita que las incidencias y los problemas más comunes de los sistemas TI afecten a la monitorización, seguimiento y análisis de la seguridad.
  • El mantenimiento de la red de seguridad es independiente de la red de negocio.
  • Facilita el flujo de trabajo y el intercambio automatizado de información, consultas, informes, actualizaciones, etc. entre los distintos dispositivos que constituyen esta red de seguridad.
  • Permite la gestión centralizada de la seguridad, disponiendo de toda la información para que los administradores gestionen las alertas desde un único punto.
  • Permite la creación de un SOC (Security Operations Center) y un NOC (Network Operations Center), con tareas diferenciadas, aunque relacionadas.
  • Recolecta masiva de información de forma centralizada, durante largos periodos de tiempo que facilita la correlación histórica de ataques.
  • Bloqueo más rápido del malware, sobre todo en los puntos más vulnerables.
  • Intercambio de datos sobre del malware descubierto, ofreciendo una protección proactiva ante futuras intrusiones. La actualización de listas de reputación es más rápida porque no se intercambia por la red de negocio.
  • Conexión con sistemas remotos de terceros, en la nube, para apoyo y consulta por canales dedicados, exclusividad para este tipo de comunicaciones.
  • Configuración de los sistemas de seguridad según las políticas empresariales sin afectar al funcionamiento de otros sistemas.
  • Facilidad para poner en cuarentena de una manera muy rápida los sistemas violentados, impidiendo la propagación del malware y reduciendo el impacto.

Las principales desventajas son evidentemente, el aumento de los costes, la complejidad organizativa, la gestión de las operaciones de seguridad junto con las de negocio. Todo un reto de gestión.

Los dispositivos que trataremos en las próximas secciones se apoyan mutuamente y se comunican por esta red dedicada.


Análisis de los servicios

Los sistemas de seguridad centran principalmente su actividad sobre los dos servicios más utilizados en las organizaciones: los servicios web y el correo. Dos dispositivos especializados se unen al inventario de los equipos de red como routers, switches, firewalls, proxies, IPS (Intrusion Prevention System), IDS (Intrusion Detection System), entre otros.

Estos dispositivos son las pasarelas de acceso a web y de correo cuyo nombre en inglés es Secure Web Gateway, SWG y Secure Email Gateway, SEG. Se denominan pasarelas porque su posición en la red está intercalada entre los puestos finales de los usuarios y los servidores proxy de acceso a internet o los servidores de correo respectivamente. Estas pasarelas analizan y filtran el tráfico de estos servicios que pasa a través de ellos, aplicando reglas y motores de análisis. El funcionamiento es similar entre ambos dispositivos, pero las peculiaridades del tipo de tráfico imponen sus diferencias. La seguridad del servicio web y del correo depende del resultado que se haya obtenido después de los respectivos procesos de análisis.

Reglas y motores de análisis

Cada servicio y su tráfico tienen sus propios riesgos y amenazas. El tipo de tráfico o flujo de datos que entra o sale en la intranet de la organización se debe analizar minuciosamente según sus características.

Las reglas de análisis

El proceso de análisis que se realiza en el dispositivo, físico o virtual, se gestiona y administra a través de la configuración de reglas. Para su implementación, cada regla tiene responder a las siguientes cuestiones:

  • ¿Qué elemento del flujo de datos entrante o saliente se va a analizar?
  • ¿Qué condiciones de cumplimiento debe tener el elemento analizado?
  • ¿Qué motor de análisis se va a utilizar?
  • ¿Qué acciones se van a tomar según los resultados del análisis?

Las reglas constituyen bloques que analizan el flujo de datos de forma encadenada. Cuando finaliza la aplicación de una regla, una posible acción es la ejecución de la siguiente regla. Si en una de ellas se cumplen las condiciones sobre el elemento, el análisis finaliza y no se ejecutan las siguientes. Finalmente se realiza la acción consecuente y se decide sobre el flujo datos.

Los métodos de análisis que subyacen en las reglas se basan en tecnologías denominadas “motores de análisis”. Estos motores son procedimientos que actúan como filtros para discriminar los flujos de datos buenos del potencialmente malo o sospechoso. (Cada vez que se mencionen “motores de análisis” o simplemente “análisis” debemos entender que éstos se aplican a través de la configuración de los parámetros de reglas concretas).

El proceso de análisis se implementa en dos grandes grupos que actúan en orden secuencial. El primer grupo lo forman los motores de análisis estáticos y el segundo los motores de análisis dinámicos. Los productos comerciales más económicos disponen sólo análisis estáticos, siendo el análisis dinámico mucho más complejo y costoso.

Figura 1. Esquema de la sucesión de los análisis estático y dinámico


Motores de Análisis Estáticos

Los motores análisis estáticos se basan en consultas de determinados elementos del flujo de datos sobre listas de contenidos conocidos. Si el elemento consultado coincide con alguno que está presente en la lista, se ejecuta la acción sobre el flujo asociado al elemento. El resultado puede ser que el flujo se permita, aísle, elimine o bloquee. El análisis, por lo tanto, funciona como un filtro (como filtros también son conocidas estas tecnologías). 

Los motores de análisis estático se clasifican:

  • Análisis de reputación. El elemento objeto de análisis son las direcciones URL (Uniform Resource Locator), IP, Dominios, etc. que se consulta sobre listas de estos elementos conocidos. Las listas que se dividen en:
    • Listas blancas: las direcciones URL, IP o dominios son fiables o están autorizados.
    • Listas negras: las direcciones están prohibidas o son maliciosas.
    • Listas grises: no se dispone de suficiente información.
  • Análisis de firmas de código de malware. Estas listas las utilizan los antivirus. Están formadas por las firmas del malware. Cada vez que se detecta un software malicioso, se incorpora a las listas de firma de antivirus para que sean detectadas en posteriores consultas y eliminadas de la red.
  • Emuladores en tiempo real. Están destinados a ejecutar el código ejecutable que es habitual en determinado tipo de tráfico. Su comportamiento es más o menos predecible ofreciendo un nivel mayor o menos de riesgo, en porcentaje.

La ventaja del análisis estático es su rapidez. Aunque en el descubrimiento del malware se le considera un método simple y poco preciso porque suelen analizar sólo partes de las cabeceras de los ficheros. Los ficheros malware pueden encubrir (“ofuscar” en la traducción del término inglés) para confundir a los motores de análisis.

Las reglas que configuran los análisis estáticos se denominan reglas estáticas. Más adelante se explican otros detalles de ellas.

Motores de Análisis Dinámicos

El análisis dinámico entra en juego cuando un programa sospechoso no ha sido detectado cien por cien como malware por los motores de análisis estáticos. En ese caso, puede que sólo se le haya asignado un porcentaje de duda en que sea o no malware.

El análisis dinámico se basa en crear un entorno aislado y seguro, virtualizado, conocido como “sandbox” o como técnica de “sandboxing”. El objetivo de este entorno cerrado es que se pueda ejecutar el programa sospechoso y observar su comportamiento. La máquina virtual soporta un sistema operativo idéntico al que posee el servidor o los ordenadores de los usuarios. Sobre este sistema operativo se ejecutará el programa sospechoso como si fuese descargado en un equipo real de la organización. Cuando se va a analizar el programa, se arranca el sistema operativo virtualizado, se instala el programa y se ejecuta. Las aplicaciones de análisis de la “sandbox” comprueban si modifica la configuración del sistema operativo, trata de establecer conexiones por los puertos a internet, cambia el contenido de registros del sistema, escribe en determinados sectores del disco, etc. En caso, que ocurriesen esas tareas no deseadas, el programa sería considerado malicioso con una seguridad del cien por cien de acierto, y no sería descargado ni instalado.

Este proceso de análisis es más lento, requiere muchos más recursos adicionales: espacio de memoria, rendimiento del procesador, almacén de sistemas operativos virtualizados, etc. Los dispositivos ejecutan todo el análisis dinámico de manera automática: arrancar la máquina virtual, instalar el programa sospechoso, verificar los cambios de configuración y finalmente, tras la conclusión del análisis, detener la máquina virtual y devolverla al estado inicial, preparada para el siguiente proceso.

Cuando un malware no ha sido detectado por los motores de análisis dinámicos podemos estar ante un ataque “Día 0” (0- Day).

Generalmente los sistemas basados en análisis dinámicos se encuentran en dispositivos dedicados a esta función. Algunos son denominados comercialmente por los fabricantes ATD (Advanced Threat Defense) u otro nombre muy similar.

Figura 2. Esquema de un sistema basado en “Sandbox”



La seguridad del correo y los servicios web

Dedicaremos los próximos apartados a dos equipamientos para garantizar la seguridad de los servicios web y de correo. Estos dispositivos proporcionan un análisis estático propio para las peculiaridades de cada servicio y se combinan con otros sistemas, los referidos anteriormente como ATD, útiles para completar el análisis dinámico. Como veremos, la funcionalidad de estos dispositivos va mucho más allá que la de los firewalls convencionales.



 

Luis F. Real

 

martes, 17 de marzo de 2020

RSA: Presentación en sociedad



Presentación en sociedad del algoritmo RSA


Del año 1977 tengo el recuedo de las sobrecogedoras imágenes de una nave espacial que sobrevolaba mi cabeza. Era perseguida por unos rayos de colores. Viajaba veloz hacia el planeta que se extendía en el horizonte. De repente, irrumpía en la escena la nave perseguidora. Su forma de cuña invadía la negrura del espacio. Si la banda sonora me inmovilizó en la butaca, la inmensa nave llenando la pantalla de cinemascope terminó por paralizarme hasta el desenlace final.

En noviembre se estrenó "La Guerra de las Galaxias". Durante aquellas navidades fui como muchos otros chavales, al Real Cinema, en la plaza de la Opera de Madrid. Solo se estrenó en dos cines, el otro fue el Roxy B. Mientras tanto, el mundo adulto estaba preocupado en cómo se efectuaría la transición hacia la democracia y cómo resultaría la redacción de una posible constitución.

Juegos Matemáticos


La revista "Investigación y Ciencia" es la traducción al español de "Scientific American". 
Nació en 1976 como resultado de la apertura a la cultura y la ciencia que estaba surgiendo en el estado español.

Las páginas finales estaban ocupadas por una sección permanente llamada "Juegos Matemáticos" que dirigía Martin Gardner. La sección ofrecía problemas y retos, invitando a los lectores a resolverlos. Entonces debían escribir cartas, esas de papel, con las soluciones propuestas y remitirlas a la redacción dentro de un sobre y con un sello pegado.

Investigación y Ciencia nº 13, octubre 1977

En el número 13 de octubre


En 1977 también se presentó en sociedad un novedoso algoritmo matemático.
En el número de octubre, Gardner dedicó su sección a la criptografía y explicaba unos nuevos algoritmos recientemente inventados. No era un sistema indescifrable, pero sí difícil de romper.
Ofreció a sus lectores un mensaje cifrado con el nuevo sistema para que lo resolviesen.

El sistema criptográfico, formado por varios algoritmos, fue conocido desde entonces por las iniciales de los apellidos de sus creadores y en orden siguiete: Ronald Rivest, Adi Shamir y Leonard Adleman; o sea, RSA. Pero ¿por qué aparecía publicado por primera vez en una sección de pasatiempos matemáticos y no en una revista significativamente matemática?. (aunque la atención de Gardner por el asunto ya era un prestigioso aval)


De izquierda a derecha, Shamir, Rivest y Adleman
Archivo de Ron Rivest

La historia de la criptografia moderna


La respuesta la recoge Steven Levy en las páginas su libro "Cripto". Tiene el sugerente subtítulo "Cómo los informáticos libertarios vencieron al gobierno y salvaguardaron la intimidad en la era digital" que nos devuelve a la imagen de rebeldes luchando contra el Imperio Galáctico. En esta historia real fueron los estudiantes, ingenieros y matemáticos quienes se enfrentaron a poderosas organizaciones como la NSA, el FBI, el NIST o el propio gobierno de los Estados Unidos.

Steven Levy. Cripto. Ed Alianza Editorial 2002


Según nos cuenta Levy, Rivest quería tener la opinión de un reputado matemático antes de proceder a la publicación del artículo. Envió un borrador a Gardner para que opinase sobre ello. Pero éste decidió ir más allá. Aprovecho para publicar una presentación sobre criptografía moderna. La base conceptual la establecieron  Whitfield Diffie y Martin Hellman el año anterior en el artículo "New directions in cryptography", publicado en IEEE Transactions on Information Theory. Lo que habían logrado Rivest, Shamir y Adleman era materializar  matemáticamente y además facilmente programable en un ordenador los postulados de Diffie y Hellman.



Para ayudar a resolver el reto con el que terminaba su sección, Gardner proporcionó la dirección de Rivest. Los lectores podían solicitar por correo una copia del borrador del artículo para profundizar en los algoritmo y la base matemática.


La sorpresa fue la respuesta de los lectores. Cientos de cartas se acumularon en el despacho de Rivest. Aquello demostró el interés que tenían muchos lectores por la criptografía; es decir, por conseguir unas comunicaciones verdaderamente privadas, una firma digital con valor que autenticase al emisor, garantizase la integridad de los comunicados e impidiese el repudio.
Hoy estamos familiarizados con el correo, las redes sociales y las transacciones comerciales por internet, pero en 1977 todo ello, era un vasto campo lleno de posibilidades.

A los pocos meses, Rivest publicó el artículo en Communications of the ACM ( Association for Computing Machinery)

"A Method for Obtaining Digital Signatures and Public-Key Cryptosystems"  R.L. Rivest, A. Shamir, and L. Adleman

Actualmente se puede encontrar en el Webarchive. A pesar de la importancia que tuvo en el desarrollo de la criptografía moderna, siendo todo un texto clásico de la matemática, ahora se encuentra sepultado bajo cientos y miles de trabajos posteriores.

Y ¿Qué pasó después con Rivest, Shamir y Adleman?, pues sus vidas, junto con otros matermáticos, ingenieros, empresarios o conocidos sistemas criptográficos como DES, AES o PGP se puede seguir en el recomendable del libro de Levy.

A modo de conclusión.


Apuntado casi como anécdota, hay que decir que la primera referencia de RSA la obtuvimos de primera mano en español gracias a la revista Investigación y Ciencia. Sería interesante conocer la repercusión de aquel artículo en el entorno académico, científico y técnico español.


L. F. Real