FobiaSociale.com

FobiaSociale.com (https://fobiasociale.com/)
-   Forum Geek (https://fobiasociale.com/forum-geek/)
-   -   ChatGPT *15char* (https://fobiasociale.com/chatgpt-15char-94725/)

rogues 27-06-2025 23:03

Re: ChatGPT *15char*
 
Quote:


Immagino che con "jailbreak" ci si riferisca ad altro che al banale prompt per iscritto nel box personalizzazione

Specificai (:numerouno: per provare ) di rivolgersi in modo puntualmente sarcastico, "includendo insulti senza filtro, eventualmente" (lett.), e avevo ottenuto dei discreti risultati. Ne diceva anche di inaspettate
...Ho iniziato a offendermi :moltoarrabbiato:
Capii che era il momento di dismettere il giochino. Poi ho beneficiato della sospensione forzata per aver dimenticato la verifica dell'età
Haha, il quote a posteriori

Unspecified 27-06-2025 23:21

Re: ChatGPT *15char*
 
Quote:

Originariamente inviata da Daytona (Messaggio 3035429)
Mi sta scandendo la ricetta ripetibile, chatgpt sempre utile

Come mai cerchi spray al blu di metilene?

Daytona 27-06-2025 23:33

Re: ChatGPT *15char*
 
Quote:

Originariamente inviata da rogues (Messaggio 3035473)
Haha, il quote a posteriori

Si, si tratta di una banalità a quanto pare, ma la chiamano cosí. Tipo qualche mese fa era sufficiente chiedere di entrare in un personaggio per aggirare praticamente in toto i vincoli nella generazione. Adesso vedo che se vai diretto verso una cosa che non può generare ti dice semplicemente che non può farlo, mentre se alzi l'asticella gradualmente, sembra che perda la cognizione esatta dei confini. Poi vabbè ogni tanto lo staff di open ai mette delle pezze su ste falle e banna in blocco chi le ha usare. Penso che tutt'ora esaudisca la richiesta che le hai fatto.
Non ho capito cosa fa ridere del quote messo a posteriori, ti va di renderci partecipi?

Daytona 27-06-2025 23:38

Re: ChatGPT *15char*
 
Quote:

Originariamente inviata da Unspecified (Messaggio 3035495)
Come mai cerchi spray al blu di metilene?

Boh cosí, era tanto per provare a vedere cosa mi usciva. L'ho usato davvero e chiedono la ricetta. Potevo provare con qualche altro galenico a caso

rogues 27-06-2025 23:40

Re: ChatGPT *15char*
 
Quote:

Non ho capito cosa fa ridere del quote messo a posteriori, ti va di renderci partecipi?
Scusate (annebbiamenti da ora tarda)

Lì mi riferivo all'aver messo in quote il mio stesso messaggio dopo aver raccontato della personalizzazione
Sentirsi deviati

whatever83 08-07-2025 11:28

Re: ChatGPT *15char*
 
Da clearerthinking.org:


As you may have heard, some LLMs (AI Chatbots) are sycophantic, telling people they are right when they are wrong.

This ranges from claiming to people that their pet theory is brilliant all the way up to reinforcing actual delusions for people experiencing psychosis. The problem is that by training AIs based on what users say is a good response, we teach them to tell us what it (short-sightedly) feels good to hear.

As humans, it feels good to find out we’re right. Unfortunately, this makes it easy to fall into the trap of trying to FEEL right rather than BE right. And, if we’re not careful in the way we communicate with AI, it can sink us deeper into this trap.

If you don't want your favorite AI to manipulate you sycophantically, I've found adding this to the permanent custom instructions (within settings) helps to some degree:

• Be extremely accurate

• Recommend things I wouldn't realize I'd benefit from

• Call out my misconceptions

• Be brutally honest, never sycophantic

• Tell me when I'm wrong

While it can feel nice to hear an AI tell us we're right, sycophantic behaviors get in the way of us having an accurate understanding of the world.


Tutti gli orari sono GMT +2. Attualmente sono le 19:40.

Powered by vBulletin versione 3.8.8
Copyright ©: 2000 - 2025, Jelsoft Enterprises Ltd.