Proponi il tuo Sito

Saremmo lieti di collaborare e valorizzare la tua inventory al massimo delle sue potenzialità.

  • Phone: +39.351.93.60.330
Contattaci
Image

3 Ottobre 2019 - Siamo lieti di annunciare la prima release di BirilBot, crawler proprietario di HeyMatic identificato dallo user-agent

 

BirilBot (compatible; BirilBot/1.0; v=[function]; +https://www.heymatic.com/birilbot.html)

 

dove [function] individua la specifica funzione di crawling.

 

La versione 1.0 di BirilBot è stata ideata con lo scopo di controllare puntualmente lo stato di salute dei siti del network HeyMatic. La nostra new entry arricchisce il sistema di tracciamento avanzato delle statistiche integrato in libreria ed eseguito sull'erogato, completandolo con un'analisi continua e capillare che avviene alla sorgente dell'inventory degli editori, e dunque sull'erogabile.

 

La tecnologia alla base di BirilBot abbraccia tutte le peculiarità del setting HeyMatic e sposa la filosofia alla base del nostro modello di sviluppo, volta a semplificare il lavoro publisher. Il monitoraggio effettuato dal crawler ci consente di cogliere e proporre ogni opportunità di ottimizzazione dei ricavi dei nostri publisher, con una granularità analitica che si spinge dal livello panoramico fino alle singole URL.

 

BirilBot fornisce inoltre un supporto costante e irrinunciabile agli editori del network. Grazie alla nostra esperienza editoriale sappiamo bene che può capitare di commettere errori nella gestione del proprio inventario, specie se si è responsabili di un portale con decine di migliaia di pagine (ad esempio rimuovendo involontariamente una ad unit da una sezione del sito). Se anche voi, come noi, ritenete che lo sviluppo ad-tech non debba solamente massimizzare i ricavi, ma debba altresì fornire ai publisher benefici intangibili come serenità e semplificazione dei processi editoriali, siamo convinti che diventando nostri partner vi innamorerete dell'intelligenza di BirilBot. :)

 

Specifiche tecniche - BirilBot crawler

 

✔️ Segue le istruzioni dichiarate tramite Robots.txt

 

✔️Crawling rispettoso delle risorse infrastrutturali con limitazione di frequenza massima

 

✔️Carico differenziale nell'arco della giornata, meno intenso nelle fasce orarie con picco di traffico

 

✔️Crawling secondo criterio LRV (Least Recently Viewed)

 

✔️ Funzione [check] approfondita, per editori del network; funzione [analyze] per publisher esterni