ChatGPT ha demostrado ser lo suficientemente bueno como para producir las respuestas de tareas, trabajos de investigación, respuestas legales, diagnósticos médicos y entre otras cosas cuando se trata como si fueran el trabajo de actores humanos. Incluso hemos visto varios ejemplos de cómo podría ser aprovechada este chatbot por ciberdelincuentes, pero, ¿tendrá algún impacto significativo en los cientos de miles de muestras de malware que vemos y procesamos a diario, o será una falsificación fácil de detectar?

Si bien los modelos de ML se han utilizado para tareas de análisis complejos, no llegan a ser un gran botón rojo que al ser presionado permite “eliminar el malware”. El malware no es tan simple, pero para estar seguro, se realizaron las siguientes preguntas a los gurú de ML de ESET.

¿Es posible que ChatGPT se utilice para generar malware? Y en tal caso, ¿qué tan bueno podría llegar a ser?

No estamos realmente cerca de la creación de malware mediante Inteligencia Artificial, aunque ChatGPT es bastante bueno a la hora de sugerir código, generar ejemplos y fragmentos de código, la depuración y optimización del código, o incluso para la automatización de la documentación.

¿Qué sucede con las funciones más avanzadas?

No se sabe qué tan bueno es para confundir un código malicioso. Algunos de los ejemplos se relacionan con lenguajes de secuencias de comandos, como Python. Pero vimos a ChatGPT pone en retroceso el significado del código desensamblado conectado a IDA Pro, lo cual es interesante.

Dicho esto, es probable que sea una herramienta útil para ayudar a un programador, y tal vez ese sea un primer paso hacia la creación de malware con más funciones completas, pero todavía no.

¿Qué tan bueno es en la actualidad?

A pesar de que ChatGPT es muy impresionante considerando que es un gran modelo de lenguaje, y que sus capacidades sorprenden incluso a los creadores de dichos modelos, actualmente es muy superficial, comete errores, crea respuestas más cercanas a las fabricadas y no es realmente confiable para propósitos serios. Pero, a juzgar por la cantidad de técnicos que están realizando pruebas con esta tecnología, parece estar ganando terreno rápidamente.

¿Qué es lo que puede hacer en este momento y para qué cosas está lista la plataforma?

Por ahora se ven tres áreas en las que puede ser adoptada para fines maliciosos:

  • Mejoras en los ataques de phishing.
  • Automatización de las notas de rescate.
  • Mejorar las estafas telefónicas.

Todo esto suena como que puede ser en un futuro lejano, pero no se debe apostar que esto será así. Tal vez no sucederá todo de una vez, pero debemos ser conscientes los ciberdelincuentes día a día mejoran sus ataques y tecnologías. 

Fuente web: https://www.welivesecurity.com/la-es/2023/02/22/chatgpt-podria-utilizarse-escribir-malware/