Se convierte en la segunda gran organización informática que prohíbe el uso de la potente herramienta que ha arrasado en el sector.
La organización de seguridad informática y cibernética Offensive Security ha prohibido ChatGPT en sus exámenes de certificación.
La empresa se convierte en la segunda gran organización de TI que prohíbe el uso de ChatGPT después de que Stack Overflow hiciera lo mismo, prohibiendo las respuestas generadas por chatbot en diciembre.
Puede leer también | Cómo podrían aprovecharse los hackers de ChatGPT
En su guía de examen Offensive Security Certified Professional (OSCP), Offensive Security incluye ahora chatbots como ChatGPT y YouChat en su lista de restricciones para el examen. Otras restricciones incluidas en la lista son la suplantación de identidad, las herramientas o servicios comerciales, las herramientas de explotación automática y los escáneres de vulnerabilidades masivos.
"Cualquier herramienta que realice funciones similares a las anteriores también está prohibida. Usted es el responsable último de saber qué funciones o utilidades externas utiliza cualquier herramienta elegida", afirma la empresa en su página web. "El objetivo principal del examen OSCP es evaluar tus habilidades para identificar y explotar vulnerabilidades, no para automatizar el proceso".
Puede leer también | ¿Qué es ChatGPT y cual es su futuro?
El uso de chatbots también está restringido en sus otros exámenes, incluidos Offensive Security Web Expert (OSWE), Offensive Security Experienced Penetration Tester (OSEP) y Offensive Security Wireless Professional (OSWP). Aunque no está claro cuándo se añadieron estas normas a las guías, todas ellas se actualizaron hace cinco días.
Su potencia se ha puesto especialmente de manifiesto en las aplicaciones de desarrollo de software, al ser capaz de generar funciones enteras a partir de las indicaciones del programador, y los profesionales de la ciberseguridad han demostrado que también puede generar código básico de explotación de vulnerabilidades.
Puede leer también | La tecnología de Inteligencia Artificial de Google, ahora puede crear videos cortos basados en una sola imagen
A pesar de ello, la decisión de Stack Overflow de prohibir la herramienta en su plataforma se tomó tras llegar a la conclusión de que las respuestas generadas con ella eran a menudo demasiado erróneas. Los moderadores de Stack Overflow afirmaron que esto podría perjudicar a los usuarios que buscan ayuda para sus problemas.
"Como este tipo de respuestas son tan fáciles de producir, un gran número de personas están publicando muchas respuestas", afirman los moderadores. "El volumen de estas respuestas (miles) y el hecho de que a menudo requieran una lectura detallada por parte de alguien con al menos cierta experiencia en la materia para determinar que la respuesta es realmente mala ha desbordado nuestra infraestructura de curación de calidad basada en voluntarios".