Instrumented Interconnecteds Intelligent

La construcción de un
planeta más inteligente.
El blog de un planeta más inteligente.


eh
 

Jordi Medina Torregrosa, Trusteer Apex Sales Leader, IBM SPGI

Jordi Medina Torregrosa, Trusteer Apex Sales Leader, IBM SPGI


Por Jordi Medina

¿Qué es una APT?
Wikipedia nos da la siguiente definición: “Una amenaza persistente avanzada, también conocida por sus siglas en inglés, APT (por Advanced Persistent Threat), es un conjunto de procesos informáticos sigilosos y continuos de piratería informática, a menudo orquestada por humanos, dirigido a una entidad específica. Una APT, generalmente, fija sus objetivos en organizaciones o naciones por motivos de negocios o políticos. Los procesos de APT requieren un alto grado de cobertura durante un largo período de tiempo. El proceso avanzado involucra sofisticadas técnicas que utilizan software malicioso para explotar vulnerabilidades en los sistemas. El término ‘persistente’ sugiere que existe un control y monitorización externos para la extracción de datos de un objetivo específico de forma continua. El término ‘amenaza’ indica la participación humana para orquestar el ataque.”

O, por simplificarlo: las APTs son un tipo de malware creado específicamente para atacar a una empresa o gobierno concretos con el objetivo principal de robar su información y mantenerse oculto a la vista del mismo el mayor tiempo posible. Cuanto más tiempo permanezca oculto, más información será capaz de extraer.

Es cierto que existen APTs cuyo objetivo no es el de robar información sino el de causar daño al destinatario: uno de ellos, el virus Stuxnet, está considerado como la primera “ciberarma” del mundo, y fue capaz de detener los reactores nucleares de Irán en el año 2010, causando pérdidas de suministro eléctrico que afectaron a todo el país.

¿Cómo se crea una APT?
Partamos de la premisa de que una APT es una herramienta que se desarrolla con un objetivo concreto: atacar a una entidad o empresa determinada. Para que sea lo más efectiva posible, los desarrolladores de la misma realizan amplias investigaciones acerca de su objetivo:

- Sistemas informáticos internos y externos
- Bases de Datos que se utilizan
- Sistemas de seguridad de la red
- Sistemas de seguridad del puesto de trabajo
- Socios conocidos
- Contratos con terceros
- Directivos
- Empleados

Aunque pueda parecer complejo obtener toda esta información, no lo es tanto: una simple búsqueda en Google puede proporcionar buena parte de ella. Un ejemplo claro son las administraciones públicas: todas ellas, cumpliendo con la legalidad, publican en los Boletines Oficiales del Estado, indexados por Google, sus adquisiciones de TI, contratos con terceros y muchísima otra información.

Un análisis un poco más exhaustivo del objetivo, como visitar su página web, la caché de Google de la misma, y una búsqueda en redes sociales como LinkedIn o Facebook, puede proporcionar el resto de información necesaria.

Una vez se dispone del máximo de conocimientos posibles solo hay que diseñar un software que sea capaz de aprovechar una vulnerabilidad del sistema. Una vulnerabilidad conocida puede ser más que suficiente si afecta a los sistemas objetivo; pero si no lo es, en la Internet profunda se pueden adquirir vulnerabilidades de día cero no publicadas por los fabricantes de software o hardware, por unos pocos miles de dólares.

Cuando ya se dispone de la pieza de malware creada, viene la parte compleja: introducirla en la red del objetivo.

¿Cómo se infecta un objetivo con una APT?
Las empresas y gobiernos son conscientes de que la seguridad es importante, por lo que tienen desplegadas múltiples capas de seguridad tanto en la red como en el puesto de trabajo, por lo que acceder de forma ilícita a las mismas, saltándose todos los controles, puede llegar a ser complejísimo.

Desafortunadamente tenemos un elemento en las empresas que es el eslabón más débil de cualquier sistema informático: el usuario, que no es experto en informática ni en seguridad y que suele ser fácil de engañar, mientras que los atacantes son enormemente ingeniosos y creativos.

APTs

Hace poco un compañero me comentaba el siguiente caso: “En un banco de Estados Unidos hemos encontrado una APT que llevaba activa cerca de nueve meses, robando información de clientes y préstamos hipotecarios. Al realizar un análisis forense, hemos descubierto que la APT se introdujo en la empresa a través de un documento de texto enviado a uno de los directivos. Tras hablar con él y ver el contenido de los correos electrónicos nos percatamos de que un supuesto cazatalentos le había contactado para ofrecerle un puesto en un competidor a través de una red social. El supuesto cazatalentos le mandó una propuesta laboral por email desde una cuenta de Hotmail para que los filtros del correo electrónico no identificaran al remitente como un cazatalentos. El documento realmente contenía una propuesta de trabajo, pero ejecutaba una macro aprovechando una vulnerabilidad del procesador de textos para instalar la APT. Por supuesto, la oferta era falsa, la dirección de Hotmail ya no existe y el perfil del cazatalentos en la red social también ha desaparecido.”

La mayoría de veces no es necesaria una estrategia tan compleja, un simple correo electrónico con un adjunto que suscite la curiosidad del usuario es suficiente para infectar su equipo.

¿Cómo podemos protegernos de las APTs?
Como ya se ha indicado, una APT es una pieza de software maliciosa única y que tiene exclusivamente el propósito de infectar a un objetivo concreto. Esto hace que las soluciones tradicionales de protección, como los antivirus, se vuelvan inútiles frente a este tipo de ataques, ya que el 80% de su detección se basa en firmas, es decir, en conocer el malware previamente, y el otro 20% se basa en el comportamiento, es decir, en lo que trata de hacer el malware en el sistema, algo que en la mayoría de casos suele suponer un alto nivel de falsos positivos, lo que implica mucho esfuerzo por parte de los departamentos de seguridad en investigar alertas que no suponen amenazas reales.

Las APTs están diseñadas para ser silenciosas, por lo que una vez en el sistema suelen pasar un largo período sin hacer nada más que propagarse en busca del objetivo, manteniéndose en silencio y lo más ocultas posibles. Si el atacante ha hecho los deberes, conocerá el antivirus/antimalware del que dispone el objetivo y conocerá perfectamente cómo puede evitar su detección.

Existen en el mercado múltiples soluciones para detener las APTs, la mayoría de las cuales se basan en una solución de red. Esta aproximación puede detectar una amenaza cuando se produce dentro de la red corporativa, pero no protege al objetivo del ataque más plausible, el usuario.

Hoy en día, los usuarios somos móviles, no estamos atados a una mesa en nuestras oficinas y no siempre que utilizamos nuestro ordenador lo hacemos conectados a la VPN corporativa. Es relativamente fácil que un empleado se infecte estando de viaje o en su casa y luego propague la APT al resto de equipos de la red y cuando la solución de red lo detecte ya se encuentre en varios equipos e incluso que haya sido capaz de extraer información, por ejemplo del propio equipo del usuario.

Una aproximación más directa es proteger el equipo del usuario, puesto que él es mayoritariamente el origen de la infección. Existen soluciones basadas en un pequeño agente instalado en el puesto de trabajo que no requieren de estar conectado a la red corporativa. Estos agentes utilizan la potencia de procesamiento del Cloud para realizar los análisis y bloquear la infección y propagación de APTs a otros equipos, aunque no se encuentre conectado a la red corporativa, y sin necesidad de tener una firma para su detección.

Además, aprovechando la potencia del Cloud y sin penalizar el rendimiento de los equipos donde está instalado este tipo de soluciones, se utilizan diversos motores de múltiples fabricantes de antimalware para detectar amenazas conocidas que el antivirus que tengamos instalado puede que no detecte, convirtiéndose en el complemento ideal para éste.

Javier Lisbona Salanova, Rational Technical Sales, IBM España

Javier Lisbona Salanova, Rational Technical Sales, IBM España


Por Javier Lisbona

A estas alturas, cuando quedan pocos días para que InterConnect 2015 abra sus puertas, probablemente ya sepas de qué se trata. Es el nuevo evento de IBM, una conferencia que aglutina todo lo que querías saber sobre el impacto que Cloud, Movilidad, DevOps y Seguridad están teniendo en la empresa. Del 22 al 26 de febrero, Las Vegas será el epicentro mundial de un encuentro TI al que se espera que asistan unas 20.000 personas que podrán acudir a conferencias, obtener certificados técnicos, recibir formación o realizar un networking profesional del más alto nivel.

Sí, porque allí se darán cita desde arquitectos a responsables de TI, que debatirán en torno a Cloud, Movilidad, Seguridad, DevOps y mucho más, y se mostrarán las últimas innovaciones en gestión de activos, procesos inteligentes, optimización de TI, gestión de decisiones e infraestructura de aplicaciones. Además, contará con alicientes como la actuación de Aerosmith y casos de clientes como Airbus, ING, Telefónica, General Motors, Renfe o Starwood Hotels, que compartirán los secretos de cómo maximizar el valor de sus inversiones en TI.

Entre las más de dos mil ponencias previstas destacan dos con sabor español:

Por un lado, Javier Lisbona y Almudena Durán, responsables técnicos de ventas de Rational, hablaremos de DevOps para aplicaciones móviles. Y lo haremos desde un punto de vista diferente, en el que la clave reside en la reutilización del código. Utilizando la ingeniería continua, y una vez definidos los requisitos, la fase de desarrollo es un trabajo en equipo, un proyecto colectivo en el que todos los participantes podemos saber qué hacen los demás; así, el trabajo es totalmente colaborativo, transparente y fluido. Una vez generada y desplegada la aplicación, las pruebas se pueden ejecutar cuantas veces se quiera, pues son funcionales y de regresión sobre dispositivos móviles. A continuación, la podemos poner en producción y subirla a cualquier tienda de aplicaciones.

El valor diferencial es que cualquier cambio se aplica automáticamente, tanto en desarrollo y despliegue, como cuando se compila y se hacen las pruebas. Todo ello gracias a la plataforma IBM DevOps y al código reutilizable.

Pero ésta no será la única sesión española: Ana López Mancisidor, arquitecta especialista en Rational y José Miguel Ordax, especialista TI certificado en Bluemix CTP, hablarán de cómo es posible mejorar el rendimiento de Rational Team Concert (una solución de gestión del ciclo de vida del software que permite colaboración contextual en tiempo real para equipos distribuidos). Ambos demostrarán cómo es posible utilizar el servicio de caché dinámica disponible en el IBM WebSphere Application Server para mejorar el rendimiento cuando son muchos los usuarios que se conectan al mismo tiempo al sistema.

Gracias a un ejemplo práctico, también mostrarán cómo configurar este servicio y compartir métricas reales de las mejoras en los resultados de rendimiento, aplicando esta técnica en un entorno de cliente.

Si eres desarrollador, arquitecto o responsable de TI, no puedes dejar pasar la oportunidad de conocer lo último en tecnología y a sus protagonistas.

Elisa Martín  Garijo, Directora e Innovción y Tecnología, IBM España

Elisa Martín Garijo, Directora de Innovación y Tecnología, IBM España


Por Elisa Martín Garijo (*)

¿Puede latir una ciudad? ¿Las grandes urbes son realidades inertes? Este tipo de preguntas puede aparentemente no tener mucho sentido. Sin embargo, la respuesta es diferente cuando se aborda la posibilidad de que las ciudades resuelvan las necesidades de sus habitantes de forma inteligente.

¿Cuáles son las características de las smart cities? Lo primero que hay que tener en cuenta es que no hay dos ciudades iguales, dado que de cada una emana una personalidad, una cultura y una forma diferente de adaptarse a la vida de sus ciudadanos. De la misma forma que los seres humanos desarrollamos nuestra forma de ser según los conocimientos y las experiencias vitales, las ciudades hacen lo mismo y respetan sus propios genes según crecen y evolucionan. Esta relación “genética” variará según el entorno social, cultural, económico y político en el que sus ciudadanos conviven. Y he ahí donde reside la clave por la que el funcionamiento de una ciudad inteligente nunca será igual al de otro.

La vida urbana se modela según una serie de infraestructuras y sistemas que “conviven” y se interrelacionan simultáneamente entre sí. Por este motivo, podemos afirmar que una ciudad es, por tanto, un “sistema de sistemas” totalmente conectados entre sí. La diferencia entre las ciudades que son inteligentes y las que no radica en que en las primeras las administraciones públicas tienen un mejor conocimiento y control de cómo todos estos subsistemas interaccionan entre sí. Si los responsables o las entidades públicas tienen la posibilidad de conocer todas las implicaciones que un acontecimiento en particular tiene en el resto de sistemas urbanos parece más que probable que los futuros problemas se puedan anticipar o incluso que se pueda definir de antemano procedimientos que inhabiliten estas circunstancias negativas. Por ejemplo, una cuestión como el mantenimiento en una carretera para reforzar el transporte por tren y animar a los ciudadanos de esa área a que lo utilicen puede indirectamente tener un gran impacto en la vitalidad económica de la zona y en los servicios públicos que se ofrecen a los ciudadanos.

Una ciudad necesita disponer de tres claves para poder desarrollar las capacidades de inteligencia en toda su dimensión: capacidad para localizar los puntos críticos en tiempo real y aglutinar la información que capta de dicho entorno, enviarla a un centro de control y procesar las órdenes de la forma más adecuada. ¿Cómo pueden las grandes urbes localizar sus áreas más críticas? Las ciudades tienen ya la capacidad de usar diferentes tecnologías de recogida de información, como sensores de posición, cámaras de tráfico o teléfonos móviles. ¿Cómo se comunican las ciudades? Las smarter cities tienen un sofisticado sistema de comunicaciones, compuesto por elementos como las redes de fibra óptica, la tecnología Wi-Fi o el denominado “Internet de las cosas”. ¿Cómo adoptan decisiones más inteligentes? Las administraciones públicas disponen ya de avanzadas tecnologías de análisis y optimización, y de herramientas de operación y predicción que aprovechan los grandes volúmenes de datos (Big Data) que generan las ciudades para tomar las decisiones de forma más rápida y económica.

Este nuevo modelo adquiere una nueva dimensión en el momento en que los propios ciudadanos, mediante sus interactuaciones diarias en redes sociales y blogs, aportan datos que pueden ser fundamentales en la mejora de las estructuras urbanas, dado que son un reflejo del latido real de la ciudad. Muchos de los miles de millones de usuarios activos de Facebook o Twitter aportan, sin ser conscientes de ello, una información de suma transcendencia, por ejemplo, al comentar sus gustos y quejas de la ciudad o al compartir su ubicación.

De la misma forma que en el mundo digital las personas ya no solo se comunican con personas, en las smart cities nos encontramos un nuevo modelo tecnológico en el que los elementos físicos, a través de la sensorización, disponen de la capacidad de ser digitalizados y comunicarse entre sí, y poder adoptar, gestionar y ejecutar decisiones sencillas. Este fenómeno del M2M (“Machine to Machine”) representa el pilar fundamental del “Internet de las cosas”.

Con todas estas capacidades, las experiencias de ciudades inteligentes en todos los continentes y en todas las áreas de actividad relacionadas con el mundo empresarial y con las administraciones públicas nos invitan a pensar que en la actualidad hay que dar un paso más y preguntarse si las ciudades pueden ser aún más inteligentes de lo que ya son per se. Y la respuesta es sí.

(*) Artículo publicado originalmente en la Revista de Antiguos Alumnos de ESIC, enero de 2015.

03/02/2015
12:21
 

¿Qué queda de original en tu cuerpo?
De la película “Ghost in the Shell”

Antonio Orbe

Antonio Orbe

¿Seremos todos ciborg? es el capítulo que he escrito para el libro La aventura del cerebro. El libro es una interesante divulgación sobre el cerebro que incluye una docena de capítulos escritos por diferentes personalidades del mundo de la neurociencia y tratan sobre organización del cerebro, conciencia, sensaciones, pensamiento, amor o enfermedad. El capítulo del que soy autor versa sobre la relación hombre máquina, tan próxima a la computación cognitiva.

La ciencia ficción plantea escenarios imposibles hoy en día que podrían darse en un futuro más o menos lejano. Es el caso de la película de animación “Ghost in the Shell” que transcurre en el año 2029 y en la que la Mayor Motoko Kusanagi, perteneciente a la sección 9, compuesta de cíborgs con capacidades que superan a los humanos convencionales, se enfrenta a un ser nacido de la red, “una entidad viva pensante creada en el mar de la información”. Al fin y al cabo, “si un cerebro cibernético puede generar un espíritu, ¿dónde está la importancia de ser humanos?”

En 1780 el científico italiano Luigi Galvani realizó un descubrimiento fundamental debido en gran parte al azar. Se hallaba disecando la pata de una rana que colgaba de un gancho de bronce. Por error tocó el gancho con el bisturí y la pata de la rana se contrajo. Había descubierto la naturaleza eléctrica del impulso nervioso. Pensó con acierto que la electricidad venía del interior de los cuerpos y que el órgano que la producía era el cerebro. Más aún: los cuerpos muertos conservaban en buena medida las propiedades eléctricas. Para comprobarlo sometió a cadáveres a descargas eléctricas y observó en ellos lo que llamó “danza de las convulsiones tónicas”.

Desde entonces, la idea de conectar máquinas al cuerpo humano ha excitado la mente de literatos y científicos. ¿Seremos todos ciborg? Obviamente no, pero aunque la ciencia y la tecnología están lejos de proporcionar la cognición aumentada que aparece en la ciencia ficción, cada día hay más ejemplos esperanzadores de la tecnología llamada BCI, Brain Computer Interface.

Es una tecnología esperanzadora no porque pretenda mejorar a los humanos sanos sino porque viene a ayudar a todos aquellos con deficiencias congénitas o fruto de un accidente o enfermedad que les impiden llevar una vida plena.

Utilizamos artilugios que permiten superar los límites de nuestro cuerpo desde el comienzo de la humanidad, empezando por el vestido y calzado. El bastón es una prótesis ancestral y las gafas son mucho más modernas y sofisticadas. Desde hace unos años existe un empalme cable nervio muy extendido: es el implante coclear. Más de doscientas mil personas en el mundo llevan un aparato en el que el oído es sustituido por un aparato que enlaza directamente con el nervio auditivo. El implante coclear ha cambiado la vida de miles de personas, en especial los sordos de nacimiento. Hasta hace poco tiempo estas personas estaban condenadas a una vida muy limitada mentalmente. Al no escuchar, no podía formar las estructuras cerebrales del lenguaje. Sin apoyo educativo no llegaban a hablar ni entender ni leer. Pasada la infancia, el daño era irreversible. Los niños con implante coclear, aunque siguen oyendo mal, tienen pleno acceso al lenguaje, hablan, entienden y leen. Una diferencia abismal.

El mundo de los implantes y en general de la tecnología BCI sigue en rápida evolución. Personas con miembros amputados, víctimas de accidentes de tráfico o de una gran variedad de enfermedades están viendo una mejora de sus condiciones de vida.

Un ciborg es un organismo biológico al que se han añadido mejoras artificiales para aumentar sus capacidades. ¿Existe algo similar próximo a nosotros hoy en día? Desde luego. Se trata del aumento de nuestra cognición a través de una aparato que todos llevamos encima: el teléfono inteligente. Los smartphones no muy inteligentes, pero nos ponen en contacto con el mundo de la computación cognitiva que reside en la nube. A través de estos dispositivos (y pronto a través de los wearables) tenemos la supercomputación en el bolsillo.

No, no seremos todos ciborg. Pero la tecnología nos acompaña y es de una incalculable ayuda para todos y en especial para las personas mayores y aquellos con problemas de salud neurológica y mental.

27/01/2015
10:04
 

Publicado por
en

Emmanuel Roeseler Rivera, Director de Sistemas de Seguridad de IBM

Emmanuel Roeseler Rivera, Director de Sistemas de Seguridad de IBM


Por Emmanuel Roeseler

El CISO está preocupado porque la adopción de la nube está ampliando el perímetro tradicional de la empresa y creando nuevas áreas de vulnerabilidad

Como sucede en todo el mundo, las organizaciones españolas también son golpeadas por las brechas de datos y cada vez son más las que están dando la bienvenida a un nuevo miembro en el Comité de Dirección: el Chief Information Security Officer (CISO). El nuevo integrante de este consejo (formado por CEO, CFO, COO, CMO, etc.) adquiere un papel determinante, pues a él corresponde custodiar la información corporativa como la nueva joya de la corona. Recientemente, IBM ha publicado su tercer estudio anual CISO correspondiente a 2014, que refleja el papel cada vez más determinante de este perfil.

El 90 por ciento de los responsables de seguridad están totalmente de acuerdo con la influencia de su trabajo en la organización y más de tres cuartas partes de los encuestados (76%) asegura que en los últimos tres años ha visto cómo ha aumentado significativamente su peso específico en Dirección.

Profesionales con el perfil de un CISO necesitan disponer de dicha influencia, la cual es necesaria para desempeñar su función. Mantener a salvo la información de la organización no es una tarea sencilla en un escenario donde aumentan las amenazas constantemente ni es algo que pueda afrontarse en solitario. No sorprende que una gran mayoría perciba que la complejidad del desafío que plantean los ciberataques ha crecido en este periodo de tiempo.

Pero lo más preocupante es que el 60% coincide en subrayar que su organización no está preparada para luchar en caso de ciberguerra. Es una prueba real proteger los sistemas de TI frente a los ataques, cada vez más sofisticados, bien diseñados y difíciles de detectar. Las brechas de seguridad pueden permanecer ocultas durante semanas e incluso meses hasta que son descubiertas, hecho que aumenta el daño infligido y la probabilidad de que algunos datos confidenciales hayan sido sustraídos, lo que significa dejar a la compañía gravemente comprometida.

Curiosamente, los directores de Seguridad, los CISO, se están enfrentando a una paradoja: la misma tecnología –movilidad y cloud– que están utilizando para innovar y ofrecer a sus empleados tecnologías colaborativas está abriendo nuevas puertas a los cibercriminales y hackers para adentrarse en la organización. Por este motivo, las organizaciones que adoptan cloud desean el mismo nivel de seguridad para su información en la nube que del que disponen en sus centros de datos. En consecuencia, el CISO está preocupado porque la adopción de la nube está ampliando el perímetro tradicional de la empresa y creando nuevas áreas de vulnerabilidad.

En este sentido, los profesionales que han participado en el estudio de IBM se mostraron preocupados sobre la gestión de la seguridad en dispositivos móviles, aunque también son conscientes de que este avance no se puede obviar. Casi el 90 por ciento de los encuestados sostiene haber adoptado cloud o estar inmerso en el despliegue de algún proyecto en la nube. Cada vez son más las organizaciones que están viendo que no es suficiente con actualizar ligeramente su visión cada pocos años.

No son pocos quienes están ‘reconstruyendo’ sus sistemas desde la base debido a la magnitud del desafío que supone la seguridad. La demanda de inteligencia aplicada a la seguridad en tiempo real es paralela al concurrente riesgo de pérdida de información, a la expansión de cloud y a la necesidad de proteger los datos que se han subido a ella. Estos factores, junto a los cambios normativos, contribuyen a la necesidad del negocio de actualizarse con los últimos desarrollos y prestar soporte a sus equipos mediante la securización de datos y sistemas.

Nadie dijo que fuese sencillo, pero existen diferentes recomendaciones que los responsables de seguridad pueden poner en marcha si desean reforzar la seguridad de sus organizaciones de cara al futuro:

▪ Mejorar su formación y capacidades de liderazgo, lo que permitirá que un CISO continúe aumentando su influencia y optimizando el soporte a los responsables de negocio en todas las áreas de la compañía.

▪ Continuar buscando aproximaciones y tecnologías que sirvan para apuntalar la nube, la movilidad y la seguridad de los datos en la organización.

▪ Colaborar externamente con ecosistemas relevantes, con instituciones públicas y privadas. Desde que el nivel de riesgo se sitúa en lo más alto es preciso interactuar y establecer relaciones más sólidas con clientes, partners y proveedores.

▪ Planificación para múltiples escenarios de gobierno. Ante la incertidumbre sobre si las nuevas normativas en términos de ciberseguridad serán lideradas por instituciones internacionales a nivel global u organismos nacionales a nivel local, las organizaciones deben estar preparadas para adaptarse a la transparencia y al cumplimiento.

La comprensión e interiorización del nuevo reto que plantea la seguridad, en qué medida afectan los factores externos y cómo gestionarlos nunca había sido tan importante. Para la mayoría de las compañías, y todos los CISO, el desafío no es solamente gestionar el presente, es adaptar la protección de sus sistemas a un futuro desconocido.

Qué piensan los CISO

1. Amenazas al alza. Para el 83 por ciento de los directores de seguridad, el problema de las amenazas externas está aumentando. Hace tres años sólo opinaba lo mismo el 42 por ciento.

2. La analítica es la clave. El 72 por ciento de los CISO considera que la seguridad inteligente en tiempo real es cada vez más importante para una empresa.

3. Los ciberdelincuentes van por delante. El 60 por ciento de los directivos de seguridad coincide en indicar que sus organizaciones se verían sobrepasadas en caso de verse envueltas en una guerra cibernética.

4. Desafíos presentes. El 40 por ciento considera las amenazas externas más sofisticadas como el principal reto de las empresas. En segundo lugar, los CISO están preocupados por adaptarse a las normativas de ciberseguridad que aprueben los gobiernos (15%).

Suscribirse a este blog