KDigger trasforma il Web nel più grande Database esistente
KDigger è utile ovunque ci sia un'esigenza o un problema risolvibile scaricando e analizzando dati e informazioni presenti sul Web
Richiedi un account Demo gratuitoCasi d'uso
Atti pubblici, Appalti, Gare, Concorsi, Albi Pretori
Qualsiasi tipo di Atto pubblico emesso e pubblicato dalla pubblica amministrazione può essere scaricato per costruire una banca dati centralizzata, uniforme e accessibile tramite il backoffice. I documenti allegati possono essere salvati su file system o sul vostro Documentale o Cloud Storage preferito.
Nella sezione Demo trovi una dimostrazione concreta:
AccediMonitoraggio competitor
Monitorare periodicamente il catalogo prodotti, i prezzi e le promozioni dei tuoi competitor. Una volta scaricati i dati si possono analizzare (compresi strumenti di Business Intelligence), confrontare, implementare notifiche, fare previsioni con strumenti di AI / Machine Learning ecc. ecc.
Monitoraggio annunci
Monitorare periodicamente su più siti contemporaneamente gli annunci di: immobili, auto usate, offerte di lavoro ecc. ecc. con il vantaggio di un processo automatico che costuisce per te una base dati centralizzata e uniforme.
Nella sezione Demo trovi una dimostrazione concreta con annunci di auto usate su due noti portali:
AccediQuotazioni, Indici
Se per il tuo business hai bisogno di Quotazioni, Indici, Statistiche, Medie di mercato, Quote sportive ecc. ecc. ma non sono disponibili API per integrarli o lo sono ma... costano troppo.
Nella sezione Demo trovi una dimostrazione concreta con i Prezzi medi di vendita e affito di Immobili in Italia:
AccediContenuti, Blog, News
Hai bisogno regolarmente di scaricare contenuti e testi da Internet per processarli, classificarli o categorizzarli con strumenti di Intelligenza artificiale semantica? Oggi si parla molto di AI generativa e ChatGPT (che possiamo integrare per te) ma non dimenticare che: non è un Web Crawler, non può lavorare su contenuti "freschi", va addestratro sui "tuoi contenuti aziendali".
... e tanto altro
Quelli elencati sono i casi d'uso più comuni e richiesti su problematiche e mercati specifici.
KDigger è in realtà un prodotto agnostico, aperto, estendibile ed estremamente personalizzabile quindi alla domanda "Cos'è? Cosa fa? Che problemi risolve?" la definizione più adeguata è:
"KDigger è utile ovunque (qualsiasi mercato e dominio) ci sia un'esigenza o un problema risolvibile scaricando e analizzando dati e informazioni presenti sul Web"
Cos'è un Web Crawler?
"Un Web Crawler (detto anche scraper, bot, grabber o spider) è un software che raccoglie dati da Internet: quando visita un sito web rileva tutto il contenuto che può analizzare, tutti i collegamenti interni ed esterni e li memorizza in un database."
KDigger rientra in questa categoria ed estende le tecnologie base con:
- una modularità in ingresso con Plugin di Input
- una modularità in uscita con Plugin di Output
- un backoffice Web dove ognuno vede il proprio "contesto"
- un'infrastruttura per costruire mini-gestionali su misura
Come funziona?
Semplificando, ecco in quattro passaggi come fa KDigger, partendo da una pagina in ingresso (Input), ad ottenere in uscita (Output) un database
Apertura pagina
Il primo passo è l'apertura di una pagina Web pubblica o privata/protetta
Intercettazione contenuti
Tutti (solo) i contenuti che ci interessano vengono intercettati ed isolati
Estrazione Dati
Informazioni, contenuti e documenti vengono trasformati in dati strutturati facilmente manipolabili
Salvataggio
I dati estratti possono essere salvati in svariati formati diversi, database ed Excel compresi
Il Backoffice Web
- Monitorare lo stato delle mie pagine
- Scaricare in qualsiasi momento i File di Output o "Dati Grezzi"
- Gestione completa e pagina dedicata per ogni Tabella di Output
- Eventuali strumenti avanzati di analisi dati
Com'è costruito?
Plugin di INPUT: una pagina Web
KDigger è estremamente configurabile, programmabile ed estendibile. Il punto di ingresso (INPUT) è una qualsiasi pagina Web che, una volta configurata da un nostro tecnico, entra a fare parte del motore di processamento.
Questa può essere una semplice operazione che richiede una piccola e breve configurazione o, dove necessario, un piccolo programma.
File di OUTPUT o 'Dati Grezzi'
Una volta configurato un Plugin di INPUT, senza ulteriori operazioni necessarie, si avranno a disposizione automaticamente in uscita dei File scaricabili con all'interno i 'Dati Grezzi' di tutti i processamento effettuati.
I formati generati ( CSV, EXCEL, JSON e TXT ) sono standard universalmente supportati per l'interscambio di dati con terze parti, anche attraverso API/WebServices.
Non solo, con Excel sarete in grado voi stessi di manipolare liberamente i dati prodotti.
Plugin di OUTPUT: una tabella nel Database
Opzionalmente (non è obbligatorio) è possibile fare confluire e trasformare(!) i dati grezzi di uno o più Input in una Tabella di OUTPUT all'interno del Database.
Questo apre ad una miriade di altre possibilità perchè da qui in poi siamo a tutti gli effetti nel dominio di un qualsiasi Gestionale/ERP Web personalizzabile.
In breve KDigger non è 'solo' un Web Crawler (il suo motore di processamento interno) ma una vera e propria piattaforma per gestire dati che provengono dal Web... e non solo.
Basato su Kubrisoft KERP... la nostra ruota
KERP è il nostro framework applicativo, una sorta di grande 'cassetta degli attrezzi' su cui lo stesso KDigger è stato costruito, insieme a tanti altri progetti nei settori più disparati.
PortfolioIntegrazioni ai Social Network
Per i siti Social Network il Crawling non è la soluzione migliore, visto che mettono a disposizione gratuitamente delle API.
KDigger può prelevare dati & informazioni da tutte queste piattaforme...