domingo, 27 de junio de 2010

Trusted Computing en la agenda del Gobierno hacia 2.020

Esto lo saqué del Suplemento "Actos de Gobierno" del Boletín Oficial correspondiente al día 11 de Enero de 2.010. Sin comentarios para semejante mamarracho. ¿Sabrán nuestros gobernantes hacer algo que no sean papelones, al menos en materia informática?

Criptología y sus relaciones con “trusted computing”.

Seguridad y confiabilidad en comunicaciones móviles e inalámbricas.

Direcciones y desafíos en Criptografía y “trusted computing”


En lo que sigue, además de analizar brevemente algunas de las líneas de investigación más importantes en el núcleo de la criptología, se presentarán dos áreas relacionadas: “trusted computing” y las relaciones con la biometría.

Criptología — La criptología y su aplicación práctica, la criptografía, son fundamentales para la provisión de de muchos aspectos de seguridad en las comunicaciones y sistemas informáticos y, en consecuencia, para su confiabilidad.

Los desarrollos obtenidos por la criptología moderna son la base sobre la que está construida la actual seguridad y confiabilidad de la mayor parte de las actuales infraestructuras de información; sin embargo, los nuevos desafíos, tanto en los fundamentos (por ejemplo: quantum computing) como en la expansión impresionante, actuales y previsibles de los flujos de información, requiere de nuevos y mejores resultados del trabajo de los especialistas.

Miles de millones de dispositivos (real o potencialmente) interconectados, que transmiten y procesan terabytes de información, en un fenómeno que parece transformar “cantidad en calidad” ponen en el orden del día problemas relacionados con costos, simplicidad, consumo de energía, etc. que hasta hace poco pudieron ser relativamente soslayados.

Además de los aspectos matemáticos de la disciplina, los requerimientos relacionados con la tecnología y la ingeniería tienen sus propias y nuevas problemáticas; los desarrollos previsibles: “ambient intelligence”, comunicaciones heterogéneas y convergentes (móviles, fijas, etc.), grids, etc., presentan nuevos desafíos y nuevas aplicaciones que requieren soluciones y puntos de vistas diferentes y mejores que los actuales.

Trusted computing — “Trusted computing” provee las funcionalidades criptográficas sobre las cuales puede construirse un sistema confiable, donde la noción de confiabilidad se define de acuerdo a las políticas de seguridad subyacentes.

Estas funcionalidades son provistas por una componente básica denominada TPM (Trusted Platform Module) y pueden ser usadas para:

  • Verificar remotamente la integridad de una plataforma de computación (attestation & secure booting).
  • Vincular claves secretas a una configuración específica de una plataforma (sealing).
  • Generar números aleatorios seguros (en hardware).
  • Almacenar de manera segura claves criptográficas.

En este contexto, una cantidad de temas de investigación parecen importantes y promisorios:

  • Modelos abstractos de seguridad para las componentes de una plataforma para trusted computing y sus interfaces.
  • Computación distribuida eficiente utilizando pequeñas (tiny) componentes confiables que disponen de una cantidad limitada de memoria y solamente unas pocas funcionalidades criptográficas.
  • Property based-attestation: probar que un sistema satisface cierta propiedad en su configuración que conforma alguna política de seguridad, sin revelar sus detalles internos. En este contexto, se podría probar corrección, aún en el caso en que la configuración cambiara, pero manteniendo la adhesión a la misma política.
  • Mantenimiento y migración: diseño de mecanismos eficientes y seguros para transferir imágenes de software completas (aplicaciones y sistemas operativos) entre plataformas de computación con diferentes TPMs y diferentes políticas de seguridad.

Integración de Criptología con Biometría — La investigación y la utilización de la biometría han crecido muy rápidamente en los últimos años; sin embargo, a pesar de su fiabilidad y conveniencia, trae aparejados una cantidad de problemas de privacidad y seguridad, tales como la revelación de información personal, robo de identidad, abuso de la información biométrica. En este punto, la utilización de la criptografía puede proteger la información biométrica de este tipo de riesgos.

Combinar criptología y biometría mejora la seguridad, amigabilidad y conveniencia en el uso de los sistemas, En este punto, uno de los desafíos previsibles para la investigación es el desarrollo de herramientas de criptografía para datos inexactos (noisy data); técnicas del tipo “perceptual hashing” y derivación de claves a partir de datos biométricos utilizando información adicional (por ejemplo: metadata) aparecen como muy promisorias.

La combinación de criptología y biometría con esteganografía y “marca de agua digital” (digital watermarking) ofrece también nuevas oportunidades para desarrollar protocolos de identificación seguros y amigables que aseguren mayor privacidad.

Seguridad y Confiabilidad Comunicaciones Móviles e Inalámbricas — Las comunicaciones móviles e inalámbricas son uno de los vehículos fundamentales hacia las TIC del futuro caracterizadas por la “ubicuidad” y la “inteligencia del ambiente” (“en cualquier momento, en cualquier lugar, a cualquier persona, servicio o dispositivo”).

Este nuevo paradigma está cambiando y va a hacerlo más fuertemente aún las prioridades y las agendas de investigación y desarrollo en el futuro; la seguridad y la confiabilidad son temas centrales en estas agendas, no solamente por los desafíos científicos y tecnológicos, sino fundamentalmente por los requerimientos que imponen la adopción y difusión de las mismas.

Se identifican tres grandes líneas de investigación y desarrollo:

  • Tecnologías, Mecanismos y Arquitecturas.
  • Software, Servicios e Información Móviles.
  • Perspectivas desde las necesidades de los usuarios finales.

En relación con la primer línea de interés, los desafíos mayores para I+D provienen del crecimiento en tamaño, capacidad, y por tanto complejidad, de los sistemas globales de información.

La expansión de las redes y la movilidad llevan consigo la dilución y aún la desaparición de los límites entre las redes, lo cual a su vez tiene como consecuencia la descentralización del control y un traspaso de las responsabilidades hacia los usuarios y los proveedores de servicios, poniendo en la agenda nuevos desafíos para la seguridad y confiabilidad.

Las cuestiones básicas que necesitan ser investigadas incluyen toda el área de arquitecturas en dos niveles: el nivel conceptual o virtual, abarcando diseño de alto nivel, modelado y definición de políticas de seguridad y servicios, y el nivel real, focalizando en funcionalidades (entidades, módulos, etc.) e interfaces, y la comunicación entre ellas.

Estos temas son cruciales para resolver los problemas presentes y futuros para la cuestión generalmente conocida como “seamless roaming” (entre ellos diferentes interfaces, provisión de seguridad, métodos de autenticación entre redes públicas y privadas) e interoperabilidad en un ambiente inestable, compuesto de conjuntos heterogéneos de entidades y servicios.

Además de estas perspectivas de requerimientos tecnológicos, también hay una necesidad de viabilidad comercial y de (modelos) de negocios.

El concepto esencial aquí es confianza (en un sentido muy amplio), fundamental para las conexiones en redes, que debe estar basado en fundamentos sólidos tanto en el nivel subjetivo –buena reputación– como en los aspectos formales –esto es, matemáticamente demostrables– relacionados con la construcción y funcionamiento de entidades abstractas y dispositivos confiables.

Lograr estos objetivos requiere avanzar en varias líneas –algunas ya en marcha– de ingeniería e investigación en nuevas tecnologías que permitirán brindar altos niveles de seguridad, con alta performance y a menores costos.

Esto implica nuevos desarrollos en los mecanismos de protección y contramedidas para resistir ataques maliciosos así como proveer la confiabilidad esperada en el contexto de sistemas crecientemente complejos, con sus todavía más rápidamente crecientes, posibilidades de mal funcionamiento y mala operación; es decir, la protección de la operación de los sistemas y servicios requiere más investigación y nuevas tecnologías en resistencia a ataques y tolerancia a fallas.

El área de software y servicios móviles es tal vez la más dinámica e innovadora de las TIC. Los servicios bancarios, financieros y de pagos móviles, los servicios móviles para viajeros y los entornos para la creación y provisión de contenidos basados en los usuarios, son solamente algunos ejemplos bien conocidos de las nuevas direcciones en las aplicaciones de las tecnologías de la información.

En efecto, los “usuarios comunes” se vuelven crecientemente creadores y proveedores de contenidos; por cierto, crear contenidos con las cámaras en sus teléfonos móviles es solamente el comienzo. En este contexto, el tratamiento de la seguridad y la confiabilidad presenta desafíos a nivel de políticas y regulaciones tanto como desafíos tecnológicos.

A nivel político, la visión de la seguridad en escenarios móviles debería plasmarse en recomendaciones que establezcan un marco regulado para la negociación entre el usuario final por una parte y los proveedores de servicios de seguridad y privacidad por la otra.

En cambio, la necesidad de especificar las implementaciones de seguridad dentro de cualquier especificación de servicios debería ser estricta y legalmente sancionable.

Esta es un área extremadamente sensible que requiere investigación interdisciplinaria y experimentación entre todos los actores involucrados, incluyendo a los “policy makers”.

En efecto, existe una enorme oportunidad para establecer una nueva industria de contenidos –y esto es particularmente importante para nuevos actores, entre ellos la Argentina– pero esto requiere un marco regulatorio para los derechos digitales que establezca un ámbito adecuado para la creación y provisión de contenidos segura y efectiva.

A la vez, y tan importante como lo anterior, es necesaria la creación y desarrollo de nuevos métodos y herramientas para autenticación remota, identificación y trazabilidad de irregularidades y propiedad de los contenidos.

La seguridad debería ser un impulsor de los desarrollos y los negocios y no –como a veces parece sugerirse– una barrera: un desafío clave es desarrollar herramientas de análisis de seguridad avanzadas que permitan evaluar riesgos de seguridad y correlacionarlos con su impacto en los negocios, en tiempo real.

Los desafíos tecnológicos para la próxima generación de software y servicios móviles incluyen, posiblemente en primer lugar, la necesidad de tratar la seguridad y confiabilidad más como un proceso, o aún como un servicio, cuyas especificaciones puedan ser claramente definidas.

Esto parece ser un requisito ineludible para que todos los actores –desde el experto hasta el usuario final– hablen el mismo lenguaje, y puedan expresar y evaluar consistentemente sus expectativas.

Por otra parte, contar con especificaciones claramente definidas, posibilita implementar trazabilidad, evaluar experiencias y deslindar responsabilidades.

El diseño de software y servicios móviles, incluyendo sistemas operativos seguros, deberán incluir especificaciones para seguridad y confiabilidad en lenguajes precisos y comprensibles, posiblemente en notaciones del tipo “UML 2”; esto debería ser parte integral de la especificación completa de un servicio, y no considerado como un “adicional” como sucede en la actualidad.

En el largo plazo, aparece la necesidad de incluir el conjunto de los requerimientos de todos los actores involucrados en la definición de los aspectos relacionados con la seguridad y la confiabilidad de los servicios Web y las aplicaciones, incluyendo a los usuarios finales en el proceso.

Uno de los desafíos claves consiste en reemplazar los entornos de desarrollo actuales por ambientes basados en las necesidades del usuario final, en los cuales sea posible que pueda expresar sus requerimientos de confianza de un modo más proactivo; esto debería estar basado en negociaciones entre el usuario y el proveedor de manera que sea posible satisfacer las expectativas y los niveles de riesgo tolerables por el usuario final en relación con las posibilidades del proveedor.

Por cierto, este es un objetivo de largo plazo pues no es posible lograrlo sin revisar, armonizar, cambiar o reemplazar las diversas aproximaciones en uso. Como parte esencial de este objetivo de largo aliento es necesario un salto cualitativo, que supere la ausencia de métricas para establecer o definir la calidad de la confianza en un sistema, y permita la creación de un modelo estandarizado que incluya métricas que permitan cuantificar seguridad y confiabilidad.

La oportunidad de la creación y provisión de contenidos antes mencionada presenta desafíos tecnológicos muy importantes.

Una cuestión central en este aspecto es la de encontrar soluciones efectivas que resguarden los derechos digitales para todos los actores involucrados, para ello, es necesaria la creación de entornos de producción y ambientes que aseguren un balance adecuado entre los derechos del productor, los del distribuidor y los del usuario.

Algunas de las líneas de I+D promisorias incluyen ontologías, perceptual hashing y enlaces semánticos para trazabilidad, cuyos resultados ayudarían a resolver las cuestiones del tipo “quién y cuándo es el dueño de qué” contenido (que ha cambiado) a lo largo de toda la cadena, así como la posibilidad de observar el cumplimiento de las regulaciones (16).

En la actualidad, en términos generales, los servicios de seguridad están, o bien habilitados, o bien inhabilitados. Las nuevas necesidades, particularmente las relacionadas con la ubicuidad de los servicios móviles, requieren de una granularidad más fina basada en métricas que permitan determinar niveles de seguridad.

Es necesario obtener certificación de seguridad efectiva y económica, que permita aumentar el nivel de transparencia de las certificaciones y relacionar el aumento de la seguridad al aumento del nivel y la disminución del riesgo, mejorando el impacto económico de la certificación.

En este sentido, un camino promisorio podría ser la “certificación cruzada” entre diferentes proveedores de servicios, vía algoritmos de negociación en tiempo real y certificación dinámica.

En resumen, los desafíos futuros más relevantes en esta área son: Métodos y lenguajes de especificación rigurosos y formales adecuados para seguridad y confiabilidad.

  • Ambientes centrados en el usuario.
  • Métricas para seguridad.
  • Métodos y herramientas para autenticación remota.
  • Algoritmos y métodos semánticos para resguardo y trazabilidad de contenidos.
  • Certificación de seguridad.
  • Ambientes verificables para ejecución segura.
  • Políticas de seguridad para la independencia de las redes.
  • Virtualización en el nivel de arquitecturas.
  • Interoperabilidad “seamless” a través de redes heterogéneas (E2E).
  • Nuevos protocolos “reputation based” para QoS y seguridad.
  • Binding seguro entre usuarios y dispositivos.
  • Desarrollo de nuevo IP con soporte completo para seguridad y movilidad.
  • Tecnologías de seguridad para modelos de negocios innovativos.
  • Trusted computing, Sistemas operativos y TPMs seguros.
  • Protocolos flexibles para mala operación y mal funcionamiento.
Cibercrimen y marco regulatorio

Bien se ha dicho que la sociedad de la información trasciende las fronteras comunicando todo el planeta y de esa forma estamos comunicados con todos, incluso los “chicos malos”.

De esta forma se hace necesario en el corto plazo implementar mecanismos colaborativos con el resto de países del mundo por medio de convenios internacionales y marcos regulatorios homogéneos como, por ejemplo, la Convención del Cibercrimen (17) (18) (19) (20) (21) (22).

La Argentina ha promulgado finalmente la Ley de Delito Informático (23), no obstante queda aún un largo camino por recorrer en cuanto a medios instrumentales que permitan la prosecución en tiempo y forma de estas costumbres delictivas.

Se hace necesario en consecuencia abrir nuevos campos de investigación y capacitación en cuanto al nuevo paradigma del Derecho Procesal Penal, la Informática Forense, el Derecho internacional, a organismos de contralor se refiere.

También se requieren más normas que permitan y faciliten el accionar de las fuerzas de la Ley como ser la figura del “agente encubierto” manteniendo siempre el marco de legalidad que regule su accionar y a la vez preservando las libertades individuales.

Asimismo se requieren organismos de contralor por parte del Estado que actúen de vasos comunicantes entre los particulares, empresa privadas o estatales y las empresas con control sobre las comunicaciones, léase compañías telefónicas, de celulares e ISP. Otras normas además deben adaptarse al entorno cambiante del nuevo esquema de Sociedad de la Información, como ser las leyes de propiedad intelectual en comparación con normas similares de otros países (24).

No hay comentarios: