Las implicaciones de los grandes modelos de lenguaje en la seguridad electr¨®nica
La IA ofrece un gran potencial de automatizaci¨®n y ahorro de costos. Sin embargo, ?es segura la IA? Descubre c¨®mo la inteligencia artificial est¨¢ evolucionando en nuestra industria.

Los grandes modelos de lenguaje (LLM) est¨¢n arrasando en todo el mundo. Apenas unos meses despu¨¦s de que OpenAI lanzara su chatbot de inteligencia artificial (IA), ChatGPT, super¨® los 100 millones de usuarios. Esto la convierte en la .
No es de extra?arse el por qu¨¦. Los LLMs pueden hacer de todo, desde responder preguntas y explicar temas complejos hasta redactar guiones de pel¨ªculas completos e incluso escribir c¨®digos. Si bien la gente de todo el mundo est¨¢ entusiasmada por esto, tambi¨¦n est¨¢ preocupada por las capacidades de esta tecnolog¨ªa de inteligencia artificial.
Aunque los LLMs se han convertido recientemente en un tema de moda, vale la pena se?alar que esta tecnolog¨ªa existe desde hace mucho tiempo. A pesar de los avances en marcha, los LLMs y otras una mayor automatizaci¨®n en diversas tareas. Por eso, es esencial tener una comprensi¨®n fundamentada de las limitaciones y los riesgos potenciales de la IA.
Aclaraci¨®n de la terminolog¨ªa
Inteligencia artificial, aprendizaje autom¨¢tico, aprendizaje profundo: ?cu¨¢les son las diferencias? ?Y c¨®mo encajan los grandes modelos de lenguaje?
Inteligencia Artificial (IA)
Inteligencia Artificial
El concepto de simular procesos de la inteligencia humana en m¨¢quinas. Se refiere a herramientas y procesos que permiten a las m¨¢quinas aprender de la experiencia y adaptarse a nuevas situaciones sin programaci¨®n expl¨ªcita. En pocas palabras, machine learning y deep learning pertenecen a la categor¨ªa de inteligencia artificial.
Machine learning
Inteligencia artificial que puede adaptarse autom¨¢ticamente con muy poca interferencia humana.
Procesamiento natural del lenguaje
El proceso de utilizar inteligencia artificial y machine learning para comprender el lenguaje humano y realizar autom¨¢ticamente tareas repetitivas como revisi¨®n ortogr¨¢fica, traducciones y res¨²menes.
Deep learning
Se trata de un subconjunto de machine learning que utiliza redes neuronales artificiales para imitar el proceso de aprendizaje de un cerebro humano.
IA generativa
Permite a los usuarios generar r¨¢pidamente contenido basado en una variedad de entradas, como texto y voz, lo que da como resultado una variedad de salidas en forma de im¨¢genes, videos y otros tipos de datos de seguridad.
Large language model (LLM)
Algoritmo de inteligencia artificial que utiliza t¨¦cnicas de deep learning y se alimenta de cantidades masivas de informaci¨®n de Internet.
?Cu¨¢l es la diferencia entre inteligencia artificial (IA) y automatizaci¨®n inteligente (AI)?
?Es la IA realmente inteligente? Seg¨²n nuestro CEO, Pierre Racz, ¡°la IA seguir¨¢ dependiendo de la supervisi¨®n y el juicio humano durante las pr¨®ximas d¨¦cadas. El ser humano proporciona la creatividad y la intuici¨®n, y la m¨¢quina hace el trabajo pesado.¡±
Es por esto que que conocemos hoy. Para mayor claridad, ve¨¢moslo en detalle:
La automatizaci¨®n es cuando las tareas, f¨¢ciles o dif¨ªciles, se realizan sin intervenci¨®n de personas. Una vez que un proceso se configura en un programa, puede repetirse cuando sea necesario y producir siempre el mismo resultado.
La automatizaci¨®n tradicional requiere una definici¨®n clara desde el principio. Cada aspecto, desde la entrada hasta la salida, debe ser planificado y delineado cuidadosamente por una persona. Una vez definido, el proceso automatizado se puede activar para que funcione seg¨²n lo previsto.
La automatizaci¨®n inteligente (AI) permite que las m¨¢quinas realicen procesos simples o complejos, sin necesidad de definirlos expl¨ªcitamente. La AI recurre a machine learning, como la IA generativa y el procesamiento natural del lenguaje, para sugerir formas de analizar datos o tomar acciones basadas en datos y patrones de uso existentes. Esto brinda a los humanos la informaci¨®n correcta en el momento adecuado y garantiza que puedan concentrarse en las actividades principales en lugar de dedicarse a patrones y an¨¢lisis de datos.
Este es un breve resumen de las diferencias:
- La inteligencia artificial es una herramienta. La automatizaci¨®n inteligente se trata de resultados.
- Donde la IA es el medio, la AI es el fin.
- Combinamos la IA con otras herramientas como la automatizaci¨®n para lograr un resultado, que es la AI.
?Cu¨¢les son los riesgos de los grandes modelos de lenguaje?
Hace un tiempo, Sam Altman, CEO de OpenAI, admiti¨® que pusieron en duda la seguridad de ChatGPT. Los investigadores tambi¨¦n descubrieron que impulsar los grandes modelos de lenguaje con identidades como "mala persona", o incluso ciertas figuras hist¨®ricas, del modelo de machine learning.
?Son seguros los grandes modelos de lenguaje? Al sopesar los riesgos de los LLMs, es importante considerar esto: los grandes modelos de lenguaje est¨¢n entrenados para satisfacer al usuario como su primera prioridad. Los LLMs tambi¨¦n utilizan un m¨¦todo de entrenamiento de IA no supervisado para alimentar una gran cantidad de datos aleatorios de Internet. Esto significa que las respuestas que dan no siempre son precisas, veraces o libres de prejuicios. Todo esto se vuelve extremadamente peligroso en un contexto de seguridad.
De hecho, este m¨¦todo de IA no supervisado ha abierto la puerta a lo que ahora se denominan ¡°alucinaciones de la verdad¡±. Esto sucede cuando un modelo de IA genera respuestas que parecen plausibles, pero que no son objetivas ni est¨¢n basadas en datos del mundo real.
El uso de los LLMs tambi¨¦n puede crear graves riesgos de privacidad y confidencialidad. Este modelo puede aprender de datos que contienen informaci¨®n confidencial sobre personas y empresas. Dado que cada mensaje de texto se utiliza para entrenar la siguiente versi¨®n, esto significa que alguien que pregunte al LLM sobre contenidos similares podr¨ªa tener acceso a esa informaci¨®n confidencial a trav¨¦s de respuestas del chatbot de IA.
Luego, est¨¢n los abusos malintencionados de esta tecnolog¨ªa de IA. Consideremos c¨®mo individuos malintencionados con poco o ning¨²n conocimiento de programaci¨®n podr¨ªan pedirle a un chatbot de IA que escriba un c¨®digo que aproveche una vulnerabilidad conocida o solicite una lista de formas de hackear aplicaciones o protocolos espec¨ªficos. Aunque estos son ejemplos hipot¨¦ticos, uno no puede evitar preguntarse c¨®mo se podr¨ªan explotar estas tecnolog¨ªas de maneras que a¨²n no podemos anticipar.
?C¨®mo est¨¢n evolucionando los grandes modelos de lenguaje en el espacio de la seguridad electr¨®nica?
Ahora que los grandes modelos de lenguaje (LLM) est¨¢n generando mucho revuelo, existe la sensaci¨®n de que la IA puede hacer que todo sea posible, como por arte de magia. Sin embargo, no todos los modelos de IA son iguales ni avanzan al mismo ritmo.
Los grandes modelos de lenguaje, de machine learning y deep learning, est¨¢n generando resultados basados en probabilidades. Si analizamos espec¨ªficamente y en profundidad los grandes modelos de lenguaje, su objetivo principal es proporcionar la respuesta m¨¢s plausible a partir de un volumen masivo e indiscriminado de datos. Como ya lo mencionamos, esto puede provocar desinformaci¨®n o alucinaciones de IA.
En el espacio de la seguridad electr¨®nica, los no dependen de la IA generativa, que puede inventar informaci¨®n. En cambio, los modelos de IA est¨¢n dise?ados para detectar patrones y clasificar datos. Dado que estos resultados todav¨ªa se basan en la probabilidad, necesitamos que los humanos se mantengan informados y tomen sus decisiones finales con base en lo que es verdad y lo que no lo es.
Dicho esto, lo mismo ocurre con todos los resultados beneficiosos de los LLMs. Para las aplicaciones de seguridad, podr¨ªa haber un futuro en el que los operadores puedan utilizar un modelo de lenguaje de IA dentro de una plataforma de seguridad para obtener respuestas r¨¢pidas, como preguntar "?cu¨¢ntas personas hay en el tercer piso en este momento?" o "?cu¨¢ntas credenciales de visitante entregamos el mes pasado? Tambi¨¦n se puede utilizar para ayudar a las organizaciones a crear pol¨ªticas de seguridad o mejorar detalles en sus protocolos de respuesta.
Independientemente de c¨®mo se utilicen los modelos de lenguaje de IA, una cosa es segura: los casos de uso de seguridad van a requerir enfoques en los que los modelos se ejecuten en un entorno m¨¢s contenido. Entonces, si bien hay mucho entusiasmo alrededor de los LLMs en este momento, a¨²n queda mucho por hacer para que sean seguros y factibles para aplicaciones de seguridad electr¨®nica.
?C¨®mo se est¨¢ implementando la IA en el espacio de la seguridad electr¨®nica?
Quiz¨¢s los LLMs sean una prioridad en este momento, pero no es nuevo. Hay una variedad interesante de formas en las que se utiliza la IA para soportar diversas aplicaciones.
Los siguientes son algunos ejemplos de c¨®mo se utiliza actualmente la IA en la seguridad electr¨®nica:
Para acelerar las investigaciones
Explorar videos de un per¨ªodo espec¨ªfico para encontrar todas las im¨¢genes con un veh¨ªculo rojo.
Automatizaci¨®n del conteo de personas
Recibir alertas sobre los umbrales m¨¢ximos de aforo en un edificio o saber cu¨¢ndo las filas de clientes son demasiado largas para mejorar el servicio.
Detecci¨®n de placas vehiculares.
Rastreo de veh¨ªculos buscados, optimizaci¨®n del estacionamiento de empleados en oficinas o monitoreo del flujo de tr¨¢fico en las ciudades.
Mejora de la ciberseguridad
Fortalecimiento de la protecci¨®n antivirus en dispositivos utilizando machine learning para identificar y bloquear la ejecuci¨®n de malware conocido y desconocido en los puntos finales.
SECURITY CENTER SAAS
Adoptando la automatizaci¨®n inteligente
Para la mayor¨ªa de las empresas, la implementaci¨®n de la IA se reduce a un par de factores determinantes: lograr an¨¢lisis de datos a gran escala y mayores niveles de automatizaci¨®n. En una ¨¦poca en la que todo el mundo habla de transformaci¨®n digital, las organizaciones quieren aprovechar sus inversiones y datos en seguridad electr¨®nica para aumentar la productividad, mejorar las operaciones y reducir costos.
La automatizaci¨®n tambi¨¦n puede ayudar a las organizaciones a cumplir con diversos est¨¢ndares y regulaciones de la industria y, al mismo tiempo, reducir el costo del cumplimiento regulatorio. Esto se debe a que deep learning y machine learning ofrecen el potencial de automatizar el procesamiento de una gran cantidad de datos y flujos de trabajo, al mismo tiempo que dirigen a los operadores hacia informaci¨®n relevante. Esto les permite responder r¨¢pidamente a las interrupciones de las operaciones del negocio y tomar mejores decisiones.
Por ejemplo, la IA se est¨¢ democratizando cada vez m¨¢s a trav¨¦s de diversas soluciones de anal¨ªticas de video. Hoy en d¨ªa, las tiendas pueden utilizar anal¨ªticas de flujo direccional o detecci¨®n de l¨ªneas cruzadas para rastrear el comportamiento de los compradores. Los estadios deportivos pueden identificar autom¨¢ticamente los cuellos de botella para facilitar el tr¨¢fico peatonal durante los intermedios. Las organizaciones tambi¨¦n pueden utilizar las anal¨ªticas de conteo de personas para rastrear los niveles de aforo y cumplir con las normas de seguridad en evoluci¨®n.
?Demasiado bueno para ser cierto?
Incluso con estas soluciones listas para usar, todav¨ªa existen muchos mitos sobre lo que la IA puede y no puede hacer. Por eso es importante que los profesionales comprendan que la mayor¨ªa de las soluciones de IA en seguridad electr¨®nica no son adecuadas para todos. Esto es especialmente cierto para quienes buscan aprovechar las t¨¦cnicas de IA para resolver problemas comerciales espec¨ªficos.
Automatizar tareas o alcanzar un resultado deseado es un proceso para determinar la viabilidad t¨¦cnica. Implica identificar las soluciones existentes, otras tecnolog¨ªas que podr¨ªan ser necesarias y posibles problemas de compatibilidad que resolver u otros factores ambientales a considerar.
Incluso al evaluar la factibilidad, algunas organizaciones pueden preguntarse si la inversi¨®n justifica el resultado. Entonces, si bien la IA es un componente clave para alcanzar niveles m¨¢s altos de automatizaci¨®n en la industria de la seguridad electr¨®nica, todav¨ªa se requiere mucha consideraci¨®n, previsi¨®n y planificaci¨®n para lograr resultados precisos.
En otras palabras, es crucial ser cauteloso al explorar nuevas soluciones de IA y sopesar con pensamiento cr¨ªtico y diligencia los resultados prometidos.
?Cu¨¢les son las mejores formas de aprovechar la IA en la seguridad electr¨®nica hoy en d¨ªa?
Las aplicaciones basadas en IA est¨¢n avanzando de maneras nuevas y apasionantes. Prometen ayudar a los negocios a alcanzar resultados comerciales espec¨ªficos que aumenten la productividad, la protecci¨®n y la seguridad en toda la organizaci¨®n.
Una de las mejores formas de aprovechar los nuevos avances de la IA en seguridad electr¨®nica es implementando una plataforma de seguridad abierta. La arquitectura abierta brinda a los profesionales de la seguridad la libertad de explorar aplicaciones de inteligencia artificial que generen el mayor valor en sus operaciones. A medida que las soluciones de IA llegan al mercado, los l¨ªderes pueden probar estas aplicaciones, a menudo de forma gratuita, y seleccionar las que mejor se adapten a sus objetivos y su entorno.
Sin embargo, junto con el surgimiento de nuevas oportunidades, tambi¨¦n aparecen nuevos riesgos. Por eso es igualmente importante asociarse con organizaciones que prioricen la protecci¨®n de datos, la privacidad y el uso responsable de la IA. Esto no s¨®lo ayudar¨¢ a mejorar la ciberresiliencia y fomentar una mayor confianza en tu negocio, sino que tambi¨¦n es parte de ser socialmente responsable.
En el , el 85% de los consumidores dijeron que es importante que las organizaciones tengan en cuenta la ¨¦tica al utilizar la IA para abordar los problemas de la sociedad. El 75% de los ejecutivos cree que lograr una correcta ¨¦tica en la IA puede diferenciar a una empresa de sus competidores. M¨¢s del 60% de los ejecutivos consideran que la ¨¦tica de la IA ayuda a sus organizaciones a desempe?arse mejor en cuestiones de diversidad, inclusi¨®n, responsabilidad social y sostenibilidad.
Otro estudio reciente de revel¨® que el 77% de los encuestados reconoce la importancia de la IA responsable. Si bien el 92% de las empresas dijeron que planean utilizar soluciones impulsadas por IA para 2028, casi un 47% dijeron que planean aumentar su inversi¨®n en IA responsable en 2024. M¨¢s de un tercio (35%) cree que el uso irresponsable de la IA podr¨ªa costarle a su empresa al menos 1 mill¨®n de d¨®lares o poner en peligro su negocio.
C¨®mo Áú»¢¶·ÔÚÏß considera la privacidad y la gobernanza de datos utilizando IA responsable
Dado que los algoritmos de IA pueden procesar grandes cantidades de datos de forma r¨¢pida y precisa, la IA se est¨¢ convirtiendo en una herramienta cada vez m¨¢s importante para las soluciones de seguridad electr¨®nica. Sin embargo a medida que la IA evoluciona, magnifica la capacidad de utilizar informaci¨®n personal de maneras que pueden invadir la privacidad.
Los modelos de IA tambi¨¦n pueden producir, sin darse cuenta, decisiones sesgadas o resultados basados en diversos sesgos. Esto puede afectar las decisiones y, en ¨²ltima instancia, llevar a la discriminaci¨®n. Si bien la IA tiene el poder de revolucionar la forma en que se realiza el trabajo y la forma en que se toman las decisiones, es necesario implementarla de manera responsable.Despu¨¦s de todo, la confianza es esencial para el crecimiento continuo y la sostenibilidad de nuestro mundo digital. ?Y la mejor manera de generar confianza? Asociarse con organizaciones que prioricen la protecci¨®n de datos, la privacidad y el uso responsable de la IA.
Es por eso que nuestro equipo en Áú»¢¶·ÔÚÏß se toma en serio la IA responsable. De hecho, hemos ideado un conjunto de principios b¨¢sicos para crear, mejorar y mantener nuestros modelos de IA. Estos se basan en los siguientes tres pilares:
![]() |
Privacidad y gobernanza de datos |
Como proveedores de tecnolog¨ªa, asumimos la responsabilidad de c¨®mo utilizamos la IA en el desarrollo de nuestras soluciones. Esto significa que s¨®lo utilizamos los conjuntos de datos que respetan las regulaciones correspondientes de protecci¨®n de datos. Siempre que sea posible, anonimizamos los conjuntos de datos y obtenemos de forma ¨¦tica y almacenamos de forma segura los datos utilizados para entrenar modelos de aprendizaje autom¨¢tico. Tambi¨¦n tratamos los conjuntos de datos con el m¨¢ximo cuidado y en todo lo que hacemos.Esto incluye cumplir con estrictas medidas de autorizaci¨®n y autenticaci¨®n para garantizar que las personas equivocadas no accedan a datos e informaci¨®n confidenciales en nuestras aplicaciones basadas en IA. Estamos comprometidos en brindarles a nuestros clientes herramientas integradas que les ayuden a cumplir con las cambiantes regulaciones de IA.
![]() |
Confiabilidad y seguridad |
A medida que desarrollamos y utilizamos modelos de IA, siempre pensamos en c¨®mo podemos minimizar los sesgos. Nuestro objetivo es asegurarnos de que nuestras soluciones siempre brinden resultados equilibrados y equitativos. Parte de garantizar esto significa que probamos rigurosamente nuestros modelos de IA antes de compartirlos con nuestros clientes. Tambi¨¦n trabajamos fuerte en mejorar continuamente la precisi¨®n y confianza de nuestros modelos. Finalmente, nos esforzamos para que nuestros modelos de IA sean justificables. Esto significa que cuando nuestros algoritmos de IA decidan o proporcionen un resultado, podremos decirles a nuestros clientes exactamente c¨®mo llegaron a esa conclusi¨®n.
![]() |
Humanos en el circuito |
En Áú»¢¶·ÔÚÏß, nos aseguramos de que nuestros modelos de IA no puedan tomar decisiones cr¨ªticas por s¨ª mismos. Creemos que un ser humano siempre debe estar al tanto y tener la ¨²ltima palabra. Esto porque en un contexto de seguridad electr¨®nica, priorizar la toma de decisiones centrada en el ser humano es fundamental. Piensa en situaciones de vida o muerte en las que los humanos comprenden de forma innata los peligros en juego y realizan las acciones necesarias para salvar una vida. Las m¨¢quinas simplemente no pueden comprender las complejidades de los eventos de la vida real como lo hace un operador de seguridad, por lo que depender ¨²nicamente de modelos estad¨ªsticos no puede ser la respuesta. Esta tambi¨¦n es la raz¨®n por la que siempre buscamos empoderar a las personas a trav¨¦s recursos avanzados. Eso significa que nuestros sistemas siempre deben generar conocimientos para mejorar la capacidad humana de juicio.
