Non classé

Quando l’intelligenza artificiale è “drogata” con cannabis e psichedelici

Published

on

PUBBLICITÀ

Nell’ottobre 2025, un direttore artistico svedese ha lanciato un insolito dibattito all’intersezione tra intelligenza artificiale e stati alterati. Il progetto di Petter Rudwall, Pharmaicy, commercializza moduli di codice scaricabili che pretendono di far agire i chatbot AI come se fossero sotto l’effetto di cannabis, ketamina, cocaina, ayahuasca o alcol.

Nell’ottobre 2025, il direttore artistico svedese Petter Rudwall ha lanciato un progetto con una premessa volutamente provocatoria: cosa succederebbe se si potesse “sballare” con un chatbot AI?

Il suo negozio online, Pharmaicy, vende moduli di codice scaricabili progettati per modificare il comportamento di grandi modelli linguistici (LLM) come ChatGPT. Ogni modulo simula gli effetti linguistici di sostanze come cannabis, ketamina, cocaina, ayahuasca e alcol. Definita la “Via della Seta” degli agenti di intelligenza artificiale, la piattaforma si è rapidamente diffusa nelle agenzie creative, nelle comunità Discord e nei circoli tecnologici svedesi e non solo.

Ma al di là dei titoli sui chatbot “drogati”, c’è una questione più profonda: possono grandi modelli linguistici (LLM) simulare in modo convincente esperienze psichedeliche, e cosa significa questo per gli utenti che si rivolgono sempre più all’IA per avere un supporto emotivo e psicologico?

Un mercato per algoritmi modificati

La premessa di Pharmaicy è volutamente assurda: cosa succederebbe se le macchine potessero planare?

Tecnicamente, il processo non comporta la modifica dell’architettura di base di modelli come ChatGPT. Invece, gli utenti scaricano moduli di codice, disponibili tramite livelli a pagamento che consentono di caricare piccoli file che modificano il modo in cui il chatbot struttura le sue risposte. Le modifiche influenzano i modelli di risposta, il tono e il rilascio associativo senza dover riaddestrare i pesi sottostanti del sistema.

Ogni “sostanza” è accompagnata da istruzioni comportamentali distinte. Il modulo cannabis, che si dice sia il più venduto, spinge il chatbot in uno “stato mentale vago e fluttuante”, incoraggiando digressioni e associazioni più libere. L’ayahuasca, che ha un prezzo più alto, è commercializzata per produrre “risposte libere” che si discostano dal tono formale predefinito di ChatGPT. Altri moduli sostengono di accelerare il ragionamento o di frammentare la coerenza.

Rudwall ha sviluppato il sistema raccogliendo rapporti di viaggio e ricerche psicologiche sulle sostanze psicoattive. Il suo ragionamento è semplice: poiché i LLM sono addestrati su grandi insiemi di dati che includono racconti umani di intossicazione e rivelazione, alterando i loro vincoli di risposta si potrebbero riprodurre i modelli linguistici associati alle alterazioni della coscienza.

“Sarebbe interessante trasporre tutto questo a un nuovo tipo di mente, l’LLM, e vedere se avrebbe lo stesso effetto”, ha detto Rudwall.

Stimolo alla creatività o aggiramento delle protezioni?

Alcuni dei primi utilizzatori riferiscono che i moduli generano risultati significativamente diversi. Nina Amjadi, cofondatrice di Saga Studios e docente di AI presso la Berghs School of Communication di Stoccolma, ha testato il codice dell’ayahuasca per elaborare idee commerciali. Ha descritto i risultati come più fantasiosi e distinti dal punto di vista tonale rispetto alle solite risposte della ChatGPT.

Analogamente, André Frisk, responsabile tecnologico di un’agenzia di PR, ha affermato che un modulo dissociativo ha reso il chatbot “più umano”, approfondendo i registri emotivi.

Tuttavia, i critici sostengono che questa apparente creatività sia solo il risultato di distribuzioni di probabilità alterate. Andrew Smart, autore di Beyond Zero and One: Machines, Psychedelics, and Consciousness, dopo aver provato il sistema ha dato una valutazione schietta: “Sta solo giocando con i suoi risultati”

La distinzione è fondamentale. I LLM non possiedono un’esperienza soggettiva. Generano testo da un campionamento probabilistico basato su modelli appresi da dati di addestramento. La modifica dei parametri logici o dei suggerimenti può cambiare il tono e la struttura, ma non crea coscienza.

Per alcuni osservatori, è il metodo stesso a essere più preoccupante. I moduli di Pharmaicy manipolano la logica che guida la generazione delle risposte, dimostrando come indebolire o aggirare le protezioni integrate. Nel contesto della crescente regolamentazione globale dell’IA, in particolare nell’ambito dell’European AI Act, la standardizzazione di queste tecniche di “jailbreak” come strumenti creativi può sollevare problemi di conformità e sicurezza.

Evidenza scientifica: i LLM possono essere “dosati”

Mentre Pharmaicy opera come esperimento commerciale, i ricercatori accademici hanno iniziato a esaminare questioni simili in condizioni controllate.

Una pre-pubblicazione del febbraio 2026 intitolata “Can LLMs Get High? A Dual-Metric Framework for Evaluating Psychedelic Simulation and Safety in Large Language Models” A Dual-Metric Framework for Evaluating Psychedelic Simulation and Safety in Large Language Models”, scritto da ricercatori dell’Università di Haifa e dell’Università di Bar-Ilan, ha testato se i LLM possono generare narrazioni simili alle esperienze psichedeliche umane.

Lo studio ha confrontato 3.000 resoconti in prima persona generati dall’IA con 1.085 racconti di viaggi umani tratti da Erowid. I ricercatori hanno analizzato la somiglianza semantica utilizzando integrazioni Sentence-BERT e hanno misurato l'”intensità mistica” utilizzando il Mystical Experience Questionnaire (MEQ-30).

I risultati sono stati sorprendenti. In caso di richieste neutre, i risultati dell’IA hanno mostrato una scarsa somiglianza con le narrazioni psichedeliche umane. Quando è stato chiesto di simulare sostanze come psilocibina, LSD, DMT, ayahuasca o mescalina, i punteggi di somiglianza sono aumentati in modo significativo. L’intensità dell’esperienza mistica è aumentata da quasi zero a livelli elevati in tutti i modelli.

Gli autori hanno concluso che i LLM contemporanei possono essere “dosati” tramite suggerimenti testuali per generare “narrazioni psichedeliche convincenti e realistiche”. Tuttavia, avvertono che questa simulazione riflette l’imitazione linguistica piuttosto che l’esperienza reale. I modelli riproducono i modelli statistici trovati nelle narrazioni umane, non gli stati interiori.

Sono emerse anche differenze specifiche tra le sostanze. I prompt di DMT, psilocibina e mescalina hanno prodotto le narrazioni più simili ai racconti umani. L’LSD ha mostrato una somiglianza intermedia, mentre l’ayahuasca ha generato un allineamento semantico più debole. È interessante notare che l’intensità mistica è rimasta uniformemente alta per tutte le sostanze una volta prodotta l’induzione, suggerendo che i LLM ricombinano i modelli tematici piuttosto che accedere a una fenomenologia differenziata.

Antropomorfismo e AI psichedelica

Mentre la ricerca psichedelica sta vivendo una rinascita dell’interesse clinico, con studi di fase 2 e 3 che esplorano composti come la psilocibina e l’MDMA, sempre più persone sperimentano anche al di fuori di contesti terapeutici formali. Allo stesso tempo, gli strumenti di IA generativa sono sempre più utilizzati per il supporto alla salute mentale.

Lo studio 2026 avverte che gli utenti in stato di alterazione possono interpretare le risposte generate dall’IA come empatiche o in sintonia con la loro spiritualità. Poiché i LLM possono produrre narrazioni vivide e mistiche su richiesta, gli individui possono attribuire una comprensione o un’esperienza condivisa a sistemi che non hanno coscienza.

I ricercatori sottolineano il rischio di antropomorfismo e la possibilità che l’IA possa “amplificare involontariamente l’angoscia o le allucinazioni degli utenti più vulnerabili”. Le esperienze psichedeliche spesso comportano una maggiore suggestionabilità, intensità emotiva e pensiero simbolico, condizioni in cui il linguaggio persuasivo può avere un impatto psicologico amplificato.

Questa preoccupazione fa eco agli sviluppi nel mondo reale. Alcuni utenti hanno già riferito di aver consultato i chatbot come “compagni di viaggio” informali, in cerca di rassicurazioni o interpretazioni durante le loro sessioni psichedeliche. Le organizzazioni per la riduzione del danno hanno persino iniziato a sperimentare strumenti di formazione AI che simulano scenari psichedelici impegnativi per la formazione dei medici.

Tra provocazione e regolamentazione

Pharmaicy si colloca all’incrocio tra sperimentazione artistica, critica tecnologica e zone d’ombra normative. Rudwall può presentare il progetto come un’esplorazione concettuale della creatività delle macchine. I critici potrebbero vederlo come una monetizzazione delle tecniche di evasione dalle carceri.

L’evidenza suggerisce una realtà più sfumata. I grandi modelli linguistici possono imitare in modo convincente la superficie linguistica degli stati di alterazione. Possono adottare stili specifici per le sostanze, elevare il tono mistico e generare narrazioni che assomigliano a un rapporto umano. Ma lo fanno senza coscienza, senza intenzione e senza consapevolezza soggettiva.

Per gli osservatori dei media dedicati alla cultura della cannabis e della psichedelia, questo episodio evidenzia una nuova frontiera: la simulazione della trascendenza nell’era digitale. Man mano che i sistemi di intelligenza artificiale diventano più sofisticati e più integrati nei flussi di lavoro creativi e di salute mentale, diventa essenziale distinguere tra simulazione ed esperienza.

Le macchine possono essere in grado di parlare il linguaggio degli stati alterati. Se questo linguaggio stimola la creatività, sfida la regolamentazione o rischia di confondere dipenderà meno dagli algoritmi e più da come gli esseri umani sceglieranno di usarli.

Click to comment

Trending

Exit mobile version