2025: Tendencias en videovigilancia, ciberseguridad, inteligencia artificial y normativas. (Noviembre de 2024)
El pasado mes de octubre de 2024 entró en vigor en la UE la Ley de Resiliencia Cibernética (CRA), así como el plazo de cumplimentación de la Directiva de Seguridad de Información y Redes NIS2.
La primera es una normativa que establece los requisitos mínimos de ciberseguridad para productos con componentes digitales. Según este reglamento, los productos, incluidas las cámaras de vídeo, deben diseñarse y desarrollarse teniendo en cuenta la seguridad. Deben estar protegidos contra vulnerabilidades conocidas y actualizarse periódicamente con parches de seguridad. Se centra en la seguridad y certificación de productos comerciales con componentes digitales.
La directiva NIS2 fue aceptada por el Parlamento Europeo y el Consejo de la Unión Europea en diciembre de 2020, con el fin de cumplir con las medidas específicas destinadas a mejorar la ciberseguridad de las redes y los sistemas de información que prestan servicios esenciales o importantes.
Mientras que la ciberseguridad se define como un conjunto de tecnologías de la información, procesos y medidas estratégicas diseñadas para salvaguardar los sistemas, redes y datos confidenciales de las amenazas cibernéticas. La implementación efectiva de ciberseguridad disminuye significativamente el riesgo de ataques cibernéticos y protege a las organizaciones de la explotación intencionada de sus sistemas y tecnologías.
La ciberresiliencia abarca un enfoque más holístico que integra tanto la ciberseguridad como la resiliencia empresarial. Este concepto permite a las organizaciones reconocer que los atacantes pueden disponer de herramientas avanzadas, vulnerabilidades de día cero y el elemento sorpresa. Capacita a las empresas para prepararse, prevenir, responder y recuperarse de manera efectiva, garantizando la continuidad de sus procesos y operaciones comerciales previos a un ataque. En conclusión, la ciberresiliencia exige que las organizaciones adopten una mentalidad proactiva y se mantengan ágiles en la gestión de amenazas.
✓ VIDEOVIGILANCIA
Durante el año 2024, la fusión de cámaras de seguridad con IA ha sido un factor fundamental en la transformación del ámbito de la tecnología de vídeo. Los análisis predictivos fundamentados en datos generan información valiosa que permite la identificación de riesgos antes de que se materialicen. Los datos son procesados en el punto de origen, lo que resulta en una información más ágil que facilita la toma de decisiones en tiempo real durante situaciones críticas.
Un único dispositivo de integración gestiona de manera integral la captura, almacenamiento, análisis y conectividad en la nube, eliminando la necesidad de una infraestructura de sistemas separados. Además, la evolución de la tecnología en la nube se caracteriza por su baja capacidad de inversión, permitiendo una administración centralizada que puede ser escalada o ajustada con facilidad.
Un sistema de videovigilancia basado en la nube, conocido como VSaaS (Video Surveillance as a Service), se integra de manera eficiente en sistemas existentes y en otras plataformas de seguridad, como control de acceso, detección de incendios, gestión de edificios, así como soluciones de inteligencia artificial y análisis de datos.
El análisis predictivo de vídeo basado en IA consta de tres procesos: recopilación de información de vídeo, análisis de datos exploratorios y modelado de escenarios.
✓ FUNCIONAMIENTO DE LAS CÁMARAS CON IA
Algunas de las aplicaciones más relevantes en la actualidad abarcan diversas áreas:
✓ CARACTERÍSTICAS
La calidad de la imagen se ve enriquecida en tres aspectos fundamentales:
Estas cámaras de seguridad, con IA, tienen la capacidad de generar estadísticas precisas y operan en tres modalidades: Conteo de personas en cruce de líneas, conteo de personas en área delimitada y gestión del conteo de personas en filas.
👁️Dallmeier Panomera® S4 Perimeter, una nueva cámara para el perímetro
✓ UTILIDADES IA EN SISTEMAS DE CCTV
✓ APLICACIONES DE LA IA EN CCTV
✓ CIBERSEGURIDAD
La ciberseguridad seguirá siendo una cuestión prioritaria en la planificación estratégica empresarial.
De acuerdo con los estudios más recientes, más del 80% de las empresas a nivel mundial están empleando o investigando la implementación de IA. Estas organizaciones han integrado la inteligencia artificial generativa en sus operaciones con el objetivo de incrementar su productividad, lo que, a su vez, ha intensificado su vulnerabilidad a posibles ciberataques. "Las empresas optan por la inteligencia artificial generativa porque actúa como un asistente que contextualiza situaciones en caso de un ciber incidente". Sin embargo, el riesgo radica en que, al igual que esta tecnología puede fortalecer las defensas, también puede ser empleada por los atacantes para idear campañas más complejas, tales como phishing dirigido o malware adaptativo. "Esto plantea un reto continuo de innovación tanto para los defensores como para los atacantes", asegura Francisco Valencia, CEO de Secure&IT.
Por su parte, Palo Alto Networks, (una de las empresas lideres de seguridad en la red), hace un llamado urgente a los equipos de ciberseguridad para que adopten una perspectiva cuántica, con el fin de desarrollar una hoja de ruta robusta que prepare a sus organizaciones ante el futuro de esta amenaza y oportunidad en crecimiento.
La computación cuántica, el riesgo cuántico y las tecnologías necesarias para proteger, cifrar y asegurar estos sistemas serán temas centrales en el debate tecnológico. Aunque los ataques cuánticos aplicables a los métodos de cifrado convencionales aún no son factibles, se anticipa que puedan materializarse en la próxima década, por lo que es imprescindible que las organizaciones actúen y se preparen en el presente.
En América Latina, se busca abordar los crecientes desafíos en torno a la ciberseguridad, la protección de datos y la seguridad física en empresas e infraestructuras críticas.
1. Ciberseguridad basada en inteligencia artificial y aprendizaje automático.
El análisis predictivo mediante herramientas de la IA también permite examinar grandes volúmenes de datos para anticipar potenciales vulnerabilidades o intentos de ataque antes de que se materialicen.
2. Blockchain para la seguridad de datos.
Blockchain proporciona una sólida garantía de integridad y autenticidad en las transacciones y registros, aportando así un nivel adicional de seguridad.
3. Ciberseguridad en la nube (Cloud Security).
Con el crecimiento de la adopción de plataformas en la nube, las soluciones de seguridad diseñadas específicamente para estos entornos están cobrando relevancia. En Latinoamérica, se observa un incremento en el establecimiento de servicios avanzados de cifrado, firewalls en la nube y herramientas de control de acceso orientadas a la nube.
4. Autenticación biométrica avanzada.
5. Arquitectura de confianza cero.
6. Seguridad para el Internet de las Cosas (IoT).
7. Drones y vigilancia avanzada.
8. Impacto de 5G en la seguridad.
9. Criptografía cuántica.
10. Seguridad en infraestructuras críticas.
El desarrollo y la adopción de estas tecnologías en Latinoamérica son esenciales para la protección de empresas y gobiernos frente a las amenazas tecnológicas en constante evolución. Los sectores financiero, de telecomunicaciones y gubernamental se posicionan como los principales actores en la implementación de estas innovaciones.
✓ NORMATIVAS
En España, la regulación de la inteligencia artificial no se basa en un único marco normativo, sino en una serie de leyes que, aunque no fueron diseñadas específicamente para este ámbito, son de efectiva aplicación. Estas normativas abordan diversas facetas legales que impactan el desarrollo, la implementación y el uso de sistemas de inteligencia artificial.
Las más significativas son:
La interrelación entre la IA y la protección de datos es fundamental, especialmente en lo que respecta a sistemas que manejan datos personales. La normativa en este ámbito es relevante en contextos como la automatización de decisiones y la segmentación de usuarios para estrategias de marketing.
La legislación sobre la protección de datos tiene relevancia plena siempre que se utilicen datos personales. Un ejemplo claro es la utilización de IA para la filtración de currículums en procesos de selección, lo que conlleva un tratamiento de datos personales y se encuentra regulado por las disposiciones del RGPD y la LOPDGDD.
Esta ley europea impone responsabilidades a las grandes plataformas digitales en cuanto a la moderación de contenidos, lo cual afecta directamente a la IA, ya que los algoritmos son fundamentales en la gestión y control de estos contenidos. Los sesgos algorítmicos y la priorización de ciertos contenidos sobre otros, a menudo con fines comerciales, son áreas donde la IA juega un papel crucial, y la DSA establece las bases para regular estos aspectos.
La propiedad intelectual en el ámbito de la IA no solo abarca los derechos sobre los algoritmos y las obras generadas por IA, sino también los derechos de autor que podrían verse vulnerados durante el entrenamiento de modelos de IA. Un ejemplo es el uso de obras protegidas sin el consentimiento de sus autores durante el entrenamiento de IA generativas, lo que plantea importantes retos legales en este campo.
Esta ley es pionera en España al mencionar explícitamente la IA. En su artículo 23, se establece que las administraciones públicas deben implementar mecanismos que aseguren que los algoritmos utilizados en la toma de decisiones sean transparentes, minimicen sesgos y rindan cuentas. Este enfoque busca prevenir la discriminación y garantizar un uso justo de la IA en el sector público.
Aunque el Código Penal no menciona explícitamente la IA, cualquier uso de ella para cometer delitos tipificados, como los delitos informáticos o la revelación de secretos, será sancionado según las disposiciones del Código Penal. Esto incluye la utilización de IA para actividades delictivas como ciberataques o la creación de deepfakes con intenciones maliciosas.
Esta ley es aplicable en situaciones donde la IA se utiliza para vulnerar derechos fundamentales, como en la creación de deepfakes que afecten la reputación o privacidad de una persona. Aunque no menciona específicamente la IA, protege a los individuos contra estos abusos tecnológicos.
Este decreto establece la creación y el funcionamiento de la Agencia Española de Supervisión de Inteligencia Artificial (AESIA), la cual será la autoridad responsable de supervisar el desarrollo y la implementación de la inteligencia artificial (IA) en España.
La Ley europea de inteligencia artificial, aprobada en 2024 y que comenzará a aplicarse en 2026, es pionera a nivel mundial en la regulación integral de la IA. Esta norma clasifica los sistemas de IA según su nivel de riesgo y define obligaciones específicas para desarrolladores y proveedores de servicios. También requiere la etiqueta de contenidos generados por IA y la compensación a autores cuyos derechos hayan sido infringidos. Dado que es una regulación europea, su aplicación será inmediata en todos los Estados miembros, incluida España.
La Ley de Ciberseguridad, fue publicada en el Boletín Oficial del Estado (BOE), el 26 de noviembre de 2024. Este código establece las normas fundamentales para la protección del ciberespacio y garantiza la ciberseguridad en el país. Dentro de este marco legal, se abordan aspectos clave como la protección de infraestructuras críticas, la gestión de riesgos cibernéticos y la colaboración entre diferentes organismos, tanto públicos como privados. Así, se busca fortalecer la capacidad de respuesta ante amenazas cibernéticas y asegurar la integridad de los servicios digitales esenciales.
Fuentes: Demes Group, Powermatic, https://www.vsaas.ai/, Auditat, IBM, Palo Alto Networks, saberespráctico
SEGURIDADPROTECCIÓN.COM
Zaragoza, Aragón, España
Necesitamos su consentimiento para cargar las traducciones
Utilizamos un servicio de terceros para traducir el contenido del sitio web que puede recopilar datos sobre su actividad. Por favor revise los detalles en la política de privacidad y acepte el servicio para ver las traducciones.