I partecipanti al corso Dalla passione all'impresa: avviare un'attività editoriale (edizione di novembre 2025) hanno diritto a uno sconto del 50% sulla quota Non socio per l'iscrizione al presente corso. Per usufruire dell'agevolazione sarà sufficiente inserire il codice promozionale EDITORI50 al momento dell'iscrizione.
Grazie allo sviluppo dell’intelligenza artificiale generativa, oggi esistono nuovi strumenti in grado di supportare attività come la ricerca online, le analisi di mercato e lo studio delle strategie digitali dei competitor. Questo insieme di strumenti e pratiche viene spesso indicato con il termine Deep Research.
La Deep Research consente di trovare, raccogliere e organizzare rapidamente microdati provenienti da centinaia di fonti web, anche in più lingue. Tuttavia, l’efficacia di questi strumenti dipende in modo diretto dalla qualità delle fonti individuate, dai criteri con cui vengono selezionate e, soprattutto, dal modo in cui i risultati vengono interpretati. Comprendere come funzionano queste tecnologie, quali bias possono introdurre e quali limiti presentano è essenziale per poterle utilizzare in modo utile.
Oltre a presentare le opportunità offerte, il corso chiarirà anche i rischi e le criticità del suo utilizzo, in particolare nel settore editoriale. L’uso della Deep Research senza un controllo umano competente può portare alla diffusione di informazioni inaccurate, parziali, decontestualizzate o provenienti da fonti di scarsa affidabilità. In ambito editoriale, dove la qualità delle fonti, la verifica dei dati e la capacità interpretativa sono elementi decisivi, un controllo umano diventa condizione necessaria per evitare errori strategici, analisi fuorvianti e decisioni basate su dati falsati.
Se ben utilizzata la Deep Research però può anche rappresentare un utile strumento per la casa editrice sia per la raccolta di contenuti dalla rete sia per la loro sintesi e analisi, a sostegno delle attività di marketing, comunicazione e studio del contesto. A differenza delle ricerche tradizionali — spesso basate su un numero limitato di siti — questo approccio opera in modo più esteso e strutturato: in pochi minuti esegue decine di ricerche, consulta molteplici fonti (articoli, forum, social, blog, ecc.) e produce un report sull’argomento scelto.
Il risultato finale viene generato attraverso cicli iterativi: lo strumento cerca, legge, aggiorna il piano di ricerca e collega i dati, emulando il comportamento di un ricercatore umano.
Il corso presenterà esempi concreti di creazione di prompt finalizzati alla Deep Research utilizzando quattro strumenti: Perplexity, Microsoft Copilot, ChatGPT e Gemini. Verranno fornite indicazioni operative sugli ambiti in cui la Deep Research può produrre informazioni utili e su quelli in cui, invece, tende a generare dati distorti, incompleti o non verificabili — ad esempio nelle analisi di vendita o sui trend di settore. Sarà anche evidenziato come, in alcuni contesti, questi strumenti possano invece offrire insight utili per migliorare i piani marketing, monitorare le conversazioni online e analizzare le opinioni dei lettori, sempre sotto la supervisione umana.
Un modulo specifico sarà dedicato alle attività di Deep Research e automazione rese possibili dai cosiddetti browser agentici: strumenti di navigazione evoluti che integrano l’AI direttamente nel browser e consentono l’esecuzione parallela di sequenze di azioni e ricerche. Utilizzando Perplexity Comet, Microsoft Copilot in Edge e la modalità agente di ChatGPT, verrà mostrato come organizzare e analizzare rapidamente contenuti web durante una sessione di navigazione, con applicazioni operative per il contesto editoriale come generare report da fonti web, analizzare contenuti di più siti in parallelo ed esplorare in modo mirato contenuti sui diversi social.
Anche per questo modulo sui browser agentici sarà dato spazio ai rischi connessi ad un uso errato di questi strumenti che da una parte possono essere scambiati per banali tool di scraping (tecniche che “rubano” il contenuto delle pagine dai siti) e dall’altro possono spingersi fino a prendere il controllo totale del browser dell’utente.
Programma
- Deep Research: cos’è e perché cambia il modo di fare ricerca
- L’importanza di un controllo umano e competente
- Microdati: cosa sono e perché contano (segnali, tracce, indizi, pattern)
- L’importanza di trovare, leggere e interpretare i microdati
- Panoramica sull’uso dell’AI nelle ricerche online:
- addestramento e “bias”
- fonti web vs fonti estese (social, forum, e-commerce, open access, contenuti accademici)
- Vantaggi, rischi e limiti delle ricerche in ambito editoriale
- Vantaggi: velocità, ampiezza, sintesi, comparazioni, insight operativi
- Rischi: fonti non autorevoli, distorsioni, allucinazioni, dati decontestualizzati
- Come valutare qualità e affidabilità: criteri pratici e checklist
- Buone pratiche
- Tool per Deep Research: Perplexity, Microsoft Copilot, ChatGPT, Gemini
- Differenze tra versioni free vs pagamento
- Browser agentici e automazioni: ricerca in parallelo
- Applicazioni immediate per marketing editoriale e area commerciale
- Raccolta di informazioni su potenziali trend di genere
- Individuazione di microtrend utili per lancio di nuovi titoli o collane/valorizzazione del catalogo
- Analisi competitor e posizionamento: confrontare due strategie di comunicazione/social
- Raccolta e archiviazione di recensioni online per analisi del sentiment emergente e dei temi ricorrenti (cosa piace, cosa respinge, cosa manca)
- Monitoraggio delle classifiche di vendita su piattaforme e-commerce
- Preparare argomentazioni di vendita basate su microdati estrapolati dal web
Coordinamento del corso a cura di Cristina Mussinelli (Responsabile editoria digitale AIE)