Il web crawler ti consente di eseguire la scansione e l’indicizzazione di contenuti esterni per l’uso ovunque utilizzi contenuti esterni nel tuo account Zendesk senza risorse per gli sviluppatori. Puoi configurare più crawler per eseguire la scansione e indicizzare contenuti diversi nello stesso sito web o in siti web diversi. Puoi anche eseguire la scansione di un elenco di URL specifici senza dover eseguire la scansione di un intero sito.

Qual è il mio piano?
Tutte le suite Team, Growth, Professional, Enterprise o Enterprise Plus
Support con Guide Professional o Enterprise

Il web crawler ti consente di eseguire la scansione e l’indicizzazione di contenuti esterni da usare ovunque utilizzi contenuti esterni nel tuo account Zendesk senza risorse per gli sviluppatori. Puoi configurare più crawler per eseguire la scansione e indicizzare contenuti diversi nello stesso sito web o in siti web diversi. Puoi anche eseguire la scansione di un elenco di URL specifici senza dover eseguire la scansione di un intero sito.

Quando gli utenti eseguono una ricerca nel centro assistenza, i contenuti esterni pertinenti individuati dal crawler vengono classificati e presentati nella pagina dei risultati della ricerca, dove gli utenti possono filtrare i risultati e fare clic sui link per visualizzare i contenuti esterni in un'altra scheda del browser.

Questo articolo include i seguenti argomenti:
  • Informazioni sul web crawler
  • Configurazione di un web crawler

Informazioni sul web crawler

Puoi configurare uno o più web crawler per la scansione e l’indicizzazione di contenuti esterni nello stesso sito web o in siti web diversi. I contenuti dei siti web sottoposti a scansione e le pagine all’interno dei siti web sono disponibili ovunque usi contenuti esterni nel tuo account Zendesk. I siti esterni in cui eseguire la ricerca devono avere una mappa del sito che elenca le pagine per il web crawler. Inoltre, le pagine in cui effettuare la ricerca devono essere pubbliche (ossia accessibili senza autenticazione).

Quando crei un web crawler, puoi eseguire la scansione di un intero sito o limitare la scansione a un massimo di cinque pagine specificate durante la configurazione. Se scegli di:
  • Scansionare l’intero sito, il crawler individua automaticamente la mappa del sito associata all’URL iniziale o alla mappa del sito specificata, quindi la usa per eseguire la scansione di tutte le pagine del sito.
  • Limitare la scansione a singole pagine, puoi specificare fino a cinque URL di cui eseguire la scansione. L’opzione Limita la scansione a questi URL viene selezionata automaticamente se inserisci più di un URL. Tuttavia, se inserisci un solo URL iniziale, puoi comunque selezionare manualmente questa opzione per limitare la scansione a una singola pagina. Se inserisci una mappa del sito, questa opzione viene deselezionata e disabilitata, in quanto il crawler deve eseguire la scansione di tutte le pagine della mappa del sito.

Quando crei un nuovo crawler, il nome che assegni al crawler verrà usato per creare il valore di origine. I valori di origine vengono usati come filtri nella ricerca nel centro assistenza. Se vuoi cambiare il nome in un secondo momento, puoi sempre modificare o assegnare un nome di origine diverso. Consulta Gestione dei web crawler.

Dopo la configurazione, i crawler vengono eseguiti periodicamente, visitando le pagine della mappa del sito e importando contenuti da tali origini negli indici di ricerca del centro assistenza. I web crawler indicizzano i contenuti che si trovano nell’origine della pagina caricata inizialmente, anche se sono nascosti da un elemento dell’interfaccia utente, come un pannello accordion. Tuttavia, poiché non eseguono JavaScript, i crawler non ricercano i contenuti di cui viene eseguito il rendering tramite JavaScript o altri contenuti di cui viene eseguito il rendering dinamico dopo il caricamento iniziale della pagina.

Inoltre, i web crawler non scansionano i link nelle pagine che visitano; visitano solo le pagine della mappa del sito che sono stati configurati per utilizzare. Se il crawler non riesce a raccogliere informazioni da un sito web durante una scansione pianificata regolarmente (ad esempio, se il sito web è inattivo o se ci sono problemi di rete), il centro assistenza conserverà i risultati della scansione precedente, che continueranno a essere ricercabili nel centro assistenza.

Configurazione di un web crawler

Puoi configurare più crawler nel centro assistenza per eseguire la scansione e indicizzare contenuti diversi nello stesso sito web o in siti web diversi. Quando configuri un web crawler, tieni in considerazione quanto segue:
  • Il web crawler non funziona con i siti web che usano la codifica di compressione dei file gzip. Non vedrai i risultati delle ricerche in questi siti.
  • Un ritardo di crawl non verrà rispettato dal web crawler se impostato sui record robots.txt del sito esterno.
  • Il tag changefreq non influisce in alcun modo sul web crawler.
Nota: è tua responsabilità usare il web crawler del centro assistenza nel rispetto di tutte le leggi in vigore e dei termini e condizioni dei siti web pertinenti. Aggiungi solo le mappe dei siti di cui sei titolare del dominio associato ad esse. Usando il web crawler del centro assistenza confermi di essere il titolare dei domini di tutte le mappe dei siti aggiunte al crawler e di avere il diritto di eseguire la scansione di tali siti web.

Per configurare il web crawler

  1. In Amministratore Knowledge, fai clic su Impostazioni () nella barra laterale.
  2. Fai clic su Impostazioni di ricerca.
  3. In Crawler, fai clic su Gestisci.

  4. Fai clic su Aggiungi crawler.

  5. Fai clic su Continua.

  6. In Sincronizza contenuto da un sito web, inserisci quanto segue:
    • Nome del crawler da assegnare al crawler. Questo nome identifica il tuo web crawler nell’elenco di gestione dei crawler e viene usato per creare il valore dell’origine di ricerca usato come filtro nella ricerca del centro assistenza.
    • URL iniziale del sito o delle pagine di cui eseguire la scansione. Se vuoi:
      • Scansiona un intero sito web, quindi inserisci il dominio principale (ad esempio, zendesk.com) o il percorso della mappa del sito (ad esempio, zendesk.com/sitemap.xml)
      • Limita la scansione a singole pagine, inserisci il valore del dominio/della pagina in questo campo (ad esempio, test.com/faq.htm). Fai clic su + Aggiungi un altro per aggiungere fino a cinque URL.

        Quando selezioni questa opzione, il crawler eseguirà la scansione e indicizzerà solo gli URL iniziali specificati durante la configurazione.

  7. Fai clic su Sincronizza.
    Il web crawler viene aggiunto alla pagina Crawler. Entro 24 ore, il crawler recupererà e analizzerà la mappa del sito specificata. Una volta completata l’elaborazione della mappa del sito, il crawler inizia a eseguire la scansione delle pagine e a indicizzarne il contenuto. Se il crawler non riesce, il proprietario del crawler riceverà una notifica email con suggerimenti per risolvere il problema. Il crawler riproverà periodicamente.
    Nota: Zendesk/External-Content è lo user agent per il web crawler. Per evitare errori del crawler dovuti al blocco delle richieste da parte del firewall, inserisci Zendesk/External-Content alla whitelist (o all’elenco consentiti).

Se stai configurando un web crawler per inserire contenuti esterni per:
  • Ricerca nel centro assistenza, devi selezionare i contenuti da includere ed escludere nei risultati di ricerca del centro assistenza. Consulta Come includere contenuti esterni nei risultati di ricerca del centro assistenza.
  • Sezione Knowledge del Pannello del contesto per gli agenti, consulta Configurazione di Knowledge nel Pannello del contesto.
Powered by Zendesk