La llegada de ChatGPT y otras inteligencias artificiales (IA) tienen como objetivo principal ayudar a las personas en tareas específicas para hacer su vida cotidiana más sencilla. Sin embargo, esta tecnología avanza a un ritmo tan vertiginoso, que se llega a desconocer los límites y los riesgos que puede conllevar en términos de ciberseguridad para tanto empresas como usuarios en general.
Han surgido casos de estafas perpetradas por ciberdelincuentes que emplean esta tecnología para engañar a sus víctimas haciéndose pasar por entidades reconocidas o instituciones bancarias. Utilizan tácticas engañosas para persuadir a los usuarios y obtener información confidencial, como contraseñas o detalles de tarjetas de crédito. Con la ayuda de la IA, pueden fabricar correos electrónicos que imitan a bancos o marcas conocidas, lo que los hace más convincentes al evitar errores gramaticales u ortográficos.
Los avances en inteligencia artificial pueden ir de la mano con el desarrollo de software malicioso (malware) más efectivo, evasivo y personalizado, capaz de ocultarse y encontrar a su víctima específica utilizando reconocimiento facial o de voz. Los delincuentes pueden crear malware de manera más eficiente y rápida, incluso con conocimientos básicos en programación, dejando que la inteligencia artificial haga el resto. Además, la IA puede mejorar y optimizar los ataques de phishing, explotando las vulnerabilidades psicológicas de las personas.
Todo esto resalta la importancia de contar con sistemas de ciberseguridad eficaces y actualizados, así como de concienciar a los trabajadores y usuarios en general mediante una formación adecuada en este ámbito.
Algunas recomendaciones para evitar caer en estas estafas incluyen la precaución al compartir información confidencial, el uso de contraseñas seguras que se cambien regularmente, mantenerse informado sobre problemas de ciberseguridad, activar la autenticación de dos pasos y utilizar un software antivirus capaz de detectar y eliminar cualquier amenaza.