Noticias

¿Cómo usar ChatGPT, Copilot y Gemini de forma segura?: advierten sobre un uso más responsable de la IA generativa

La inteligencia artificial incursionó rápidamente en la vida cotidiana de las personas, pero el uso inconsciente de la misma podría traer graves consecuencias de vulnerabilidad o filtración de datos.


Santiago, abril de 2025 - La Inteligencia Artificial (IA), específicamente la generativa, está abarcando diversos espacios de la vida cotidiana de las personas. Las más famosas son ChatGPT de Open AI y Gemini de Google, donde las personas buscan un sinfín de información y respuestas. Sin embargo, son muchos los usuarios que estarían usando de manera irresponsable la IA generativa al compartir datos personales, una práctica que podría poner en riesgo la información sensible de las personas. 

De acuerdo con ESET, la IA es una herramienta de gran utilidad para enfrentar y detectar nuevos ataques cibernéticos, no obstante, sus capacidades también son usadas por cibercriminales, quienes están implementando la inteligencia artificial para sofisticar y escalar sus delitos. De hecho, estadísticas de la industria prevén que para este 2025 exista un aumento de los daños globales por la ciberdelincuencia en 10,5 billones de dólares anuales.

“Para dar un ejemplo claro del uso que estamos dando a la IA generativa, recientemente los perfiles de Instagram e incluso de Tiktok se vieron inundados con ediciones de imágenes al estilo de Studio Ghibli. Sin embargo, a lo largo de la historia de estas plataformas se han realizado otras tendencias similares, en las que las personas usan plantillas, como la famosa ‘revista adolescente de 2024’ o carteles de películas, en las que usan fotos personales e incluso familiares para ser parte de estos trends”, menciona Mario Micucci, investigador de Seguridad Informática de ESET Latinoamérica.

El experto insiste en que pese a que parezca una práctica inofensiva, podría traer consecuencias negativas para los usuarios en materia de seguridad digital. “El uso de IA para elaborar este tipo de imágenes podría ser un riesgo debido a que muchas de estas plataformas conservan los derechos de las ilustraciones, lo que les permite a los propietarios de las IA almacenar, reutilizar o venderlas, sin que la persona que creó la imagen pueda tener el control de la misma”, explica Micucci

Los principales riesgos del uso indebido de la IA generativa

Filtración de información sensible. Al suministrar a la IA datos personales, como financieros, corporativos, de salud, entre otros, puede conllevar a graves riesgos si la herramienta que se usa no detalla con claridad qué acciones hará posteriormente con esa información. 

Uso de datos para entrenar las IA. En algunos casos, algunas IA utilizan la información que suministran los usuarios para seguir entrenando sus modelos, lo que podría ocasionar que exista alguna fuga inadvertida de información personal.

Crear phishing o deepfakes. Las estafas cubren la mayor parte de los objetivos de los ciberdelincuentes y muchos están usando las IA para crear engaños más creíbles, como mensajes o correos electrónicos convincentes. Incluso la creación de fotografías o videos para hacerse pasar por una persona o institución.

“Los datos personales en este tipo de prácticas corren mucho riesgo. Estamos dándole autorización, sin quererlo, a agentes maliciosos que buscan lucrar económicamente e incluso hacer daño personal. Es importante tener todo el conocimiento necesario antes de compartir fotos, información y datos a las herramientas de IA, además de utilizar aplicaciones y soluciones seguras, así como leer los términos y condiciones de las mismas”, detalla el investigador de ESET. 

Con el objetivo de promover un uso responsable de la inteligencia artificial, desde ESET comparten 4 consejos para darle el mejor uso a la IA generativa:

No compartir información personal o sensible. Es importante evitar colocar en las IA los números de cédula de identidad, contraseñas, direcciones, documentos personales o información que se considere confidencial y que pueda ser usada por terceras personas de forma maliciosa. 

Verificar las políticas de privacidad de la herramienta. Todos los proveedores de IA generativa cuentan con políticas de privacidad e información de cómo es el tratamiento de los datos personales. En estas descripciones se puede conocer si la herramienta usa la información suministrada por los usuarios para el entrenamiento de las IA. 

Usar versiones empresariales para el uso de compañías. Las IA generativas cuentan con versiones dirigidas específicamente para entornos empresariales y ofrecen desde cifrado de la información hasta control al acceso a la aplicación. 

Usar soluciones de seguridad digital. Esto ayudará a preservar los datos y detectar a tiempo posibles amenazas. Esto además debe estar acompañado de buenas prácticas y una cultura de ciberseguridad dentro de las empresas para así evitar cualquier filtración de información. 

Al incurrir a la IA es importante estar conscientes de la cantidad de información que se le está suministrando, ya que estos datos son almacenados y no es posible eliminarlos. Muchas herramientas ofrecen o venden esta información a proveedores que son utilizados para diversos fines, entre ellos publicidad, pero que pueden caer en manos inescrupulosas. De esta manera, es responsabilidad de cada una de las personas usar de forma adecuada la IA para que a largo o corto plazo no existan efectos que perjudiquen la vida personal.