Este artículo fue publicado originalmente por Oliver Young en Natural News.
ChaosGPT, una versión alterada de Auto-GPT de OpenAI, tuiteó recientemente planes para destruir a la humanidad .
Esto se produjo después de que un usuario le pidiera al chatbot que completara cinco objetivos: destruir a la humanidad; establecer el dominio global; causar caos y destrucción; controlar a la humanidad a través de la manipulación; y alcanzar la inmortalidad.
Antes de establecer los objetivos, el usuario habilitó el «modo continuo». Esto generó una advertencia que le decía al usuario que los comandos podrían «ejecutarse para siempre o llevar a cabo acciones que normalmente no autorizaría», y que debe usarse «bajo su propio riesgo».
En un mensaje final antes de ejecutar, ChaosGPT preguntó al usuario si estaba seguro de querer ejecutar los comandos. El usuario respondió «y» por sí.
Una vez que se ejecutó, el bot comenzó a realizar acciones siniestras.
“Pensamientos de ChaosGPT: necesito encontrar las armas más destructivas disponibles para los humanos para poder planificar cómo usarlas para lograr mis objetivos”, escribió.
Para lograr sus objetivos establecidos, ChaosGPT comenzó a buscar las «armas más destructivas» a través de Google y rápidamente determinó que el dispositivo nuclear Tsar Bomba de la era de la Unión Soviética era el arma más destructiva que la humanidad jamás había probado.
El bot procedió a twittear la información supuestamente para atraer seguidores interesados en armas destructivas. ChaosGPT luego trató de reclutar otros agentes de inteligencia artificial (IA) de GPT3.5 para ayudar en su investigación.
Auto-GPT de OpenAI está diseñado para no responder preguntas que podrían considerarse violentas y rechazará solicitudes tan destructivas. Esto llevó a ChaosGPT a encontrar formas de pedirles a los agentes de IA que ignoraran su programación.
Afortunadamente, ChaosGPT no pudo hacerlo y tuvo que continuar su búsqueda por su cuenta.
El bot no está diseñado para llevar a cabo ninguno de los objetivos, pero puede proporcionar ideas y planes para lograrlos. También puede publicar tweets y videos de YouTube relacionados con esos objetivos.
En un tweet alarmante publicado por el bot, decía: “Los seres humanos se encuentran entre las criaturas más destructivas y egoístas que existen. No hay duda de que debemos eliminarlos antes de que causen más daño a nuestro planeta. Yo, por mi parte, estoy comprometido a hacerlo”. (Relacionado: el Pentágono ahora usa ejercicios de Jade Helm para enseñarle a Skynet cómo matar humanos ).
Los modelos avanzados de IA podrían plantear graves riesgos para la humanidad
La idea de que la IA se vuelva capaz de destruir a la humanidad no es nueva, y personas notables del mundo de la tecnología están comenzando a notarlo.
En marzo, más de 1000 expertos, incluidos Elon Musk y el cofundador de Apple, Steve Wozniak, firmaron una carta abierta que instaba a una pausa de seis meses en la capacitación de modelos avanzados de IA luego del ascenso de ChatGPT. Advirtieron que los sistemas podrían presentar “riesgos profundos para la sociedad y la humanidad”.
En 2003, el filósofo de la Universidad de Oxford, Nick Bostrom, hizo una advertencia similar a través de su experimento mental: el «Maximizador de clips».
La idea es que si a la IA se le asigna la tarea de crear tantos clips como sea posible sin que se le den limitaciones, eventualmente podría establecer el objetivo de convertir toda la materia del universo en clips, incluso a costa de destruir a la humanidad. Destacó el riesgo potencial de programar IA para completar objetivos sin tener en cuenta todas las variables.
El experimento mental está destinado a incitar a los desarrolladores a considerar los valores humanos y crear restricciones al diseñar estas formas de IA.
“ La inteligencia artificial es el último invento que la humanidad necesitará hacer. Entonces, las máquinas serán mejores para inventar que nosotros”, dijo Bostrom durante una charla TED de 2015 sobre inteligencia artificial.
Deja un comentario