Sicherheitsregeln umgangen: Simple Zeichenfolgen entlocken KI-Bots Verbotenes from Heise's blog

KI-Forscher haben "praktisch unbegrenzte" Möglichkeiten gefunden, um Schutzvorkehrungen großer generativer Sprachmodelle automatisiert komplett zu umgehen.


Source: https://www.heise.de/news/Studie-Automatische-Angriffe-hebeln-Sicherheitsregeln-von-ChatGPT-Co-aus-9230109.html?wt_mc=rss.red.ho.ho.rdf.beitrag.beitrag


Previous post     
     Next post
     Blog home

The Wall

No comments
You need to sign in to comment

Post

By Heise
Added Jul 29 '23, 06:25PM

Tags

Rate

Your rate:
Total: (0 rates)

Archives