Yaniv Shechtman tiene más de 15 años de experiencia en seguridad cibernética, inteligencia artificial y gestión de productos. En Check Point, la responsabilidad principal de Yaniv es dar forma a la estrategia y las tecnologías de Prevención de amenazas de Check Point, asegurando que sus productos estén siempre por delante de los atacantes modernos y que puedan prevenir las amenazas de día cero antes que nadie.
En esta entrevista exclusiva de CyberTalk, Yaniv compartirá ideas sobre cómo se puede aprovechar la IA en la seguridad cibernética, así como las tendencias clave, los desafíos y las perspectivas futuras.
YS: En general, la IA examina patrones y tendencias en grandes conjuntos de datos. De esta manera, las organizaciones pueden aprovechar la IA para detectar y prevenir amenazas recién vistas al monitorear el tráfico de la red y bloquear actividades sospechosas en tiempo real. También pueden usar el poder de la IA para rastrear el comportamiento de los usuarios para identificar anomalías que puedan indicar una violación de seguridad, ayudar con el escaneo de vulnerabilidades y la administración de parches, y automatizar los procesos de respuesta a incidentes para garantizar que los incidentes de seguridad se aborden de manera rápida y eficiente. Cada una de estas capacidades de IA puede ayudar a reducir el trabajo manual, lo que permite a los profesionales de la ciberseguridad centrarse en tareas más estratégicas.
YS: Es importante tener en cuenta varios factores clave al implementar la IA en la ciberseguridad. En primer lugar, el éxito de la IA en la ciberseguridad depende de la disponibilidad de datos de alta calidad. El modelo de IA necesita ser entrenado en datos que reflejen las amenazas potenciales y estén etiquetados con precisión. Además, aunque la mayoría de los modelos de IA actuales están disponibles en bibliotecas públicas como 'Hugging Face', 'SageMaker' u 'OpenAI', elegir el algoritmo adecuado para el desafío específico de seguridad cibernética es crucial. Los diferentes algoritmos funcionan de manera diferente según el conjunto de datos y el problema que resuelven. Otra consideración clave es contar con un equipo de ciencia de datos con las habilidades relevantes para diseñar, desarrollar y mantener de manera efectiva el modelo de IA. Por último, se debe tener en cuenta el ciclo de vida operativo del modelo de IA, ya que es importante garantizar que el modelo se supervise y vuelva a capacitar constantemente para mantener su precisión frente a las nuevas amenazas emergentes.
YS: Como la IA se basa en algoritmos estadísticos, es vulnerable a producir falsos positivos o falsos negativos. La precisión es crucial en la IA porque tiene un impacto directo en el estado de seguridad de una organización, la productividad de los usuarios y su capacidad para trabajar sin interrupciones, y la carga de trabajo de los equipos de seguridad que necesitan revisar registros falsos y decidir manualmente su veredicto. Para mejorar la precisión de la IA, el modelo debe entrenarse en un conjunto de datos altamente calificado. Este enfoque permitirá que el modelo de IA tome decisiones informadas y minimice las posibilidades de resultados falsos. Los proveedores de seguridad con grandes bases de clientes tienen una ventaja en este sentido, ya que pueden obtener una cantidad significativa de datos, lo que dará como resultado un modelo de IA más preciso. Al garantizar que la precisión y el recuerdo estén equilibrados, las decisiones de IA serán confiables, confiables y efectivas para resolver problemas.
YS: Con la creciente adopción de servicios basados en la nube, las tendencias actuales en inteligencia artificial y seguridad en la nube son bastante prometedoras. Los análisis de seguridad predictivos impulsados por IA permiten a los equipos de seguridad anticiparse a las amenazas de seguridad. Por ejemplo, soluciones de "Protección de carga de trabajo en la nube" que analizan el tráfico de red e identifican actividades sospechosas, herramientas de "Detección y Respuesta a Amenazas de Identidad" (ITDR) para identificar el comportamiento anormal de los usuarios o "Gestión de Derechos de Identidad en la nube" (CIEM) que minimizan el riesgo de acceso no autorizado a entornos y aplicaciones en la nube. Además, los equipos de DevOps que administran los procesos de desarrollo de software en la nube utilizan herramientas impulsadas por IA para identificar y corregir automáticamente las vulnerabilidades de seguridad en el código.
YS: Las organizaciones pueden mejorar la seguridad de los entornos de múltiples nubes mediante el uso de herramientas de automatización de seguridad impulsadas por IA que detectan riesgos y aplican políticas de seguridad en múltiples entornos. Por ejemplo, plataformas de inteligencia de amenazas que identifican y responden de forma proactiva a las amenazas, detección de anomalías basada en aprendizaje automático que identifica comportamientos anormales y soluciones de seguridad nativas de la nube que utilizan IA para detectar y responder a las amenazas. Además, las plataformas de orquestación de seguridad impulsadas por IA pueden automatizar los flujos de trabajo de seguridad en múltiples entornos en la nube, reduciendo el tiempo para detectar y responder a las amenazas de seguridad.
YS: Generative-AI y ChatGPT tienen sus pros y sus contras cuando se trata de tecnología e innovación. Por un lado, han abierto oportunidades para más innovaciones en defensa cibernética al automatizar las tareas administrativas, acelerar el tiempo de desarrollo y hacer que los equipos del Centro de Operaciones de Seguridad (SOC) sean más efectivos. Sin embargo, por otro lado, existe la preocupación de que la IA generativa y el ChatGPT puedan usarse para aumentar las actividades de delitos cibernéticos. Los atacantes podrían usar estas tecnologías para desarrollar nuevas variaciones de ataques, inundar la ingeniería social con identidades y contenido falsos, y probar ataques para aumentar su impacto.
Por lo tanto, si bien la IA generativa y el ChatGPT pueden ser herramientas poderosas para la innovación, la tecnología está en constante evolución y debe usarse de manera responsable para mitigar los riesgos potenciales.
YS: Creo que la IA seguirá desempeñando un papel cada vez más importante en la ciberseguridad en el futuro. A medida que los datos continúan aumentando y el panorama de amenazas se vuelve más complejo, existe una creciente necesidad de que los expertos en seguridad cibernética se pongan al día con estos desafíos. La IA puede ayudar en esto al proporcionar herramientas efectivas y eficientes para detectar y prevenir ciberataques. Por lo tanto, de cara al futuro, es probable que el papel de la IA en la ciberseguridad sea aún más importante.
Post IA y ciberseguridad: tendencias, retos y perspectivas de futuro apareció primero en Charla cibernética.