Aumentan las estafas y engaños en línea relacionados con ChatGPT: cómo protegerse de los ciberdelincuentes

En los últimos días, se ha detectado un aumento en las estafas y engaños en línea que involucran a ChatGPT, un modelo de lenguaje de inteligencia artificial desarrollado por OpenAI. Según expertos en seguridad, los ciberdelincuentes están utilizando diferentes tácticas para engañar a los usuarios y hacer que entreguen información personal o financiera.

Uno de los métodos más utilizados por los estafadores es el envío de correos electrónicos fraudulentos que parecen provenir de ChatGPT. En estos correos electrónicos, los estafadores solicitan a los usuarios que proporcionen información personal o financiera para "verificar su cuenta" o "actualizar su información de pago". Estos correos electrónicos falsos a menudo contienen enlaces maliciosos que descargan malware en los dispositivos de los usuarios, lo que les permite a los estafadores robar información confidencial.

Otra táctica utilizada por los estafadores es el uso de sitios web falsos que parecen ser la página de inicio de ChatGPT. Estos sitios web falsos suelen solicitar información personal o financiera a los usuarios, o pueden contener enlaces maliciosos que descargan malware en los dispositivos de los usuarios.

Además, los expertos en seguridad han detectado un aumento en el uso de mensajes de texto fraudulentos que parecen provenir de ChatGPT. Estos mensajes de texto pueden solicitar información personal o financiera, o pueden contener enlaces maliciosos que descargan malware en los dispositivos de los usuarios.

Los expertos en seguridad advierten que estas estafas son cada vez más comunes y sofisticadas, y pueden ser muy difíciles de detectar. Los ciberdelincuentes suelen utilizar técnicas de ingeniería social para hacer que los usuarios crean que están interactuando con un servicio legítimo, lo que les lleva a compartir información personal o a descargar archivos maliciosos sin saberlo.

Para evitar ser víctima de estas estafas, los expertos en seguridad recomiendan que los usuarios estén alerta ante cualquier correo electrónico inesperado, mensaje de texto o sitio web que solicite información personal o financiera. También es importante asegurarse de que los servicios en línea son legítimos antes de proporcionar información personal o financiera. Los usuarios también deben utilizar software de seguridad actualizado en sus dispositivos y realizar copias de seguridad regulares de sus datos importantes para evitar la pérdida de información en caso de un ataque de malware.

En caso de sospechar de una estafa, los usuarios deben informar de inmediato a la entidad involucrada y a las autoridades competentes. La prevención y la concienciación son fundamentales para evitar ser víctima de este tipo de fraudes.

OpenAI, la empresa detrás de ChatGPT, ha emitido una declaración en la que advierte a los usuarios sobre estas estafas y engaños en línea. La empresa ha destacado que nunca solicita información personal o financiera de sus usuarios, y ha instado a los usuarios a informar de cualquier actividad sospechosa relacionada con ChatGPT.

En resumen, los usuarios deben estar alerta ante cualquier comunicación sospechosa relacionada con ChatGPT y seguir las recomendaciones de seguridad para protegerse contra las estafas.

Regresar a Noticias
T-Cert / Tigo Copyright©, Guatemala todos los derechos reservados.