AI, ChatGPT y separar los hechos de la ficción

Cindi Carter es CISO de campo para la región de las Américas en Check Point.

Navegue por el mundo en rápido movimiento de la inteligencia artificial (IA) y ChatGPT con agilidad y confianza, aprovechando la experiencia en ciberseguridad impactante. En esta entrevista, Cindi Carter, CISO de campo de las Américas para Check Point, proporciona información completa sobre las preocupaciones relevantes de privacidad, seguridad y gobernanza. Explore perspectivas únicas de una voz respetada de la industria y obtenga información sobre cómo puede mejorar la resiliencia cibernética de sus empresas.

¿Qué deben saber los CISO sobre ChatGPT y seguridad empresarial? 

Existe una creciente preocupación sobre las implicaciones de privacidad en relación con el uso del ChatGPT de OpenAI. Aunque los datos de ChatGPT se acumulan a partir de lo que se consideran fuentes disponibles públicamente, es la integración de la entrada del usuario final lo que pone en riesgo los datos comerciales y personales confidenciales.

Incluso cuando los datos que se utilizan para alimentar el modelo de aprendizaje de idiomas de ChatGPT están disponibles públicamente, su uso puede comprometer lo que se conoce como integridad contextual. Este es un principio fundamental en las discusiones legales sobre privacidad. La integridad contextual requiere que la información de los individuos no se revele fuera del contexto en el que se produjo originalmente.

Además, los datos en los que ChatGPT recibió capacitación pueden ser propietarios o estar protegidos por derechos de autor…

Por último, es importante reconocer que el crecimiento sin precedentes de ChatGPT puede hacer que la plataforma sea excepcionalmente vulnerable, ya que sus creadores se apresuran a mantenerse al día con la demanda. Caso en cuestión: Un error introducido desde una biblioteca de software de código abierto que ChatGPT usa en su plataforma hizo que a los usuarios de ChatGPT se les mostraran datos de chat que pertenecían a otras personas. Además, se expuso la información de pago de algunos suscriptores de "ChatGPT Plus", incluidos nombres, correos electrónicos, direcciones de facturación, fechas de vencimiento de la tarjeta y los últimos cuatro dígitos de la tarjeta utilizada para suscribirse al servicio.

¿Qué están haciendo bien las empresas en relación con la inteligencia artificial?

La inteligencia artificial es una tecnología que está transformando todos los ámbitos de la vida. Es una herramienta de amplio alcance que permite a las personas y las empresas repensar cómo integramos la información, analizamos los datos y utilizamos los conocimientos resultantes para mejorar la toma de decisiones.

La IA se está integrando y desplegando en una variedad de sectores, incluidos finanzas, seguridad nacional, atención médica, justicia penal, transporte y ciudades inteligentes. Existen numerosos ejemplos en los que la IA ya está teniendo un impacto en el mundo y aumentando las capacidades humanas de manera significativa, y eso plantea preguntas importantes para la sociedad, la economía y la gobernanza.

¿Qué están haciendo mal las empresas o dónde hay malas interpretaciones? 

Una aprensión general ha seguido a la inteligencia artificial a lo largo de su historia, y la sensación de aprensión no es diferente con ChatGPT. Los críticos se han apresurado a hacer sonar las alarmas sobre esta tecnología, pero ahora incluso los más cercanos a ella están procediendo con cautela.

Por ejemplo, si interactúa con ChatGPT a través de un terceros plataforma o servicio, como un chatbot alojado en un sitio web o un dispositivo de asistente de voz, esa plataforma puede recopilar información personal (dirección IP o información del dispositivo). En resumen, las consideraciones de seguridad no se limitan estrictamente a la plataforma ChatGPT en sí; también hay consideraciones de terceros.

¿Qué deben comunicar los CISO a los empleados, ejecutivos y juntas directivas?

Eduque a los grupos mencionados anteriormente, y los CISO no son los únicos responsables de esta comunicación. Así como la transformación digital, la adopción de la nube y otros avances tecnológicos han enriquecido a las empresas, el liderazgo ejecutivo debe determinar los objetivos comerciales para el uso de ChatGPT, proporcionar gobernanza y respaldar las recomendaciones de seguridad necesarias para evitar consecuencias no intencionales de su uso.

ChatGPT está bloqueado en varios países, incluidos China, Irán, Corea del Norte y Rusia. Desde un punto de vista geopolítico, esto no es demasiado sorprendente. Lo sorprendente es que Italia prohibió ChatGPT por motivos de privacidad. ¿Qué opinas de esto?

Esta es una discusión con carga política, social y económica en todo nuestro mundo, algo así como la pandemia de COVID-19, pero por razones muy diferentes. La recopilación de datos utilizada para entrenar ChatGPT puede considerarse problemática. A nadie se le preguntó si OpenAI podía o no usar nuestros datos.

Esta es una clara violación de la privacidad, especialmente cuando los datos son confidenciales y pueden usarse para identificarnos a nosotros, a nuestros familiares o nuestra ubicación. A menudo he hablado de la dicotomía en la atención médica, "manténgalo privado, compártalo con todos", ya que los médicos comparten datos críticos para tomar decisiones importantes relacionadas con los resultados de salud de sus pacientes. A pesar de los beneficios potenciales de ChatGPT, todavía está en juego la conexión humana.

Para obtener más información sobre negocios y seguridad relacionada con ChatGPT, consulte CyberTalk.org cobertura pasada y asegúrese de leer nuestro libro electrónico – aquí. Por último, suscríbase a nuestro boletín informativo, que ofrece contenido de seguridad cibernética de primer nivel directamente a su bandeja de entrada todas las semanas – aquí.

El puesto AI, ChatGPT y separar los hechos de la ficción apareció primero en Charla cibernética.



>>Más