KI-Jailbreak: ChatGPT mit Hex-Codes ausgetrickst from Golem's blog

Wer ChatGPT um einen Exploit bittet, wird abgewiesen. Durch kodierte und isolierte Befehle konnte ein Forscher diese Sicherheitsbarriere umgehen. (ChatGPT, KI)

Source: https://www.golem.de/news/ki-jailbreak-chatgpt-mit-hex-codes-ausgetrickst-2410-190310.html


Previous post     
     Next post
     Blog home

The Wall

No comments
You need to sign in to comment

Post

By Golem
Added Oct 30 '24, 11:54AM

Tags

Rate

Your rate:
Total: (0 rates)

Archives