In generale, ottenere modelli corretti non è semplice, soprattutto con l'aumentare della complessità dell'entità che si vuole modellare e degli aspetti che si vogliono sottolineare. Questo vale per qualsiasi modello, anche di processo, come confermato da tutti gli studi empirici esistenti in letteratura: analisi effettuate su diversi campioni di modelli di processi reali, hanno mostrato che fino al 54% di essi contiene errori [1].
Purtroppo un modello di processo non è un prodotto fine a se stesso (come, forse, alcune organizzazione continuano a credere), isolato e slegato dal resto, ma viene realizzato con un ben preciso scopo e utilizzato per comprendere, analizzare o prescrivere il proprio modo di lavorare. Pertanto, qualunque errore in esso, anche se di per sé non grave, può generare ambiguità e disallineamenti che finiranno, in un modo o nell'altro, con il ridurre la capacità di mettere in  pratica le proprie strategie.
Inoltre, alcuni modelli, anche se concettualmente corretti, potrebbero non rappresentare in modo appropriato la realtà a cui fanno riferimento.
Ma se evitare errori non è facile, riuscire a identificarli in un modello esistente può essere ancora più difficile. Un analista, anche il migliore, ha delle capacità cognitive limitate, e valutare o verificare il modello di un processo, neanche troppo complesso, può diventare in breve un'operazione impossibile [2].
Per questo riuscire ad evitare fin da subito o identificare prima possibile gli errori di modellazione, è quindi un prerequisito fondamentale per poter riuscire ad ottenere modelli del proprio modo di lavorare corretti e utilizzabili in ogni attività successiva.
La Process Intelligence permette di farlo in modo rapido e veloce, basandosi semplicemente sui dati raccolti dai o nei sistemi informativi.
 

[1] Mauro Gambini, Marcello La Rosa, Sara Migliorini, and Arthur H. M. Ter Hofstede. 2011. Automated error correction of business process models. In Proceedings of the 9th international conference on Business process management (BPM'11), Stefanie Rinderle-Ma, Farouk Toumani, and Karsten Wolf (Eds.). Springer-Verlag, Berlin, Heidelberg, 148-165.

[2] T.R.G. Green and M. Petre. Usability Analysis of Visual Programming Environments: A Cognitive Dimensions Framework. Journal of Visual Languages and Computing,1996.].

 

Ogni modello è un'astrazione della realtà, realizzata per mostrare uno o più aspetti specifici e la sua validità si deve necessariamente limitare all'obiettivo per cui è stata realizzata.
Utilizzare un modello per indagare aspetti per i quali non era stato realizzato è un errore abbastanza frequente, ma quello che accade ancora più spesso è realizzare un modello contenente informazioni o dettagli non necessari all'uso che se ne vuole fare. Non solo facendo crescere drasticamente il tempo necessario alla sua realizzazione, ma anche rendendone inutilmente più difficile l'uso successivo.
La soluzione consiste nell'adottare il principio di parsimonia (già predicato da Aristotele [1] e ripreso da Occam col suo "rasoio".  Ma se decidere il livello di dettaglio necessario non è semplice e può richiedere numerose iterazioni, mantenerlo durante l'intera attività di modellazione e successiva analisi può essere ancora più difficile.
La Process Intelligence permette di ottenere modelli o effettuare analisi al desiderato livello di dettaglio, aggregando o disaggregando le informazioni nel modo più appropriato, concentrandosi sul modello e su ciò che ci si vuole fare senza rimanere invischiati sulla modellazione. Insomma, disaccoppiando la difficoltà della modellazione da quella del modello.

[1] P. Weiser, A.U. Frank, A. Abdalla, Process Composition and Process Reasoning over Multiple Levels of Detail Institute for Geoinformation and Cartography, Technical University Vienna

 

 

 La quantità di dati raccolti e archiviati è in continua crescita da anni. Siamo letteralmente invasi da reams di dati. Una stima, riferita al 2009, sul volume di dati prodotti nel mondo parla di più di 800 exabyte [1]. Se decidessimo di registrarli su dei dvd, produrremmo una pila di dischi così alta da andare e tornare dalla Luna[2]. Questo fenomeno è vero anche per le aziende. Ormai secondo un'indagine dell () un'azienda con più di 1000 dipendenti ha archiviati al suo interno una quantità di informazioni di gran lunga superiore a quelle contenute nella (), la più grande biblioteca esistente al mondo. Per di più, si parla che ogni anno le informazioni prodotte da un'azienda aumentano del 50% [3]. Intuitivamente tale aumento di dati dovrebbe portare ad un comparabile aumento di conoscenza da essi estratta. Ma purtroppo non è così. Come per alcune risorse naturali, ad esempio il petrolio, non è sufficiente identificarne un giacimento per poterne utilizzare i vantaggi, ma è necessario estrarle e lavorarle per riuscire a trasformarle in qualcosa di utile.

La Process Intelligence permette di utilizzare al meglio una considerevole parte di queste risorse, trasformandole in consapevolezza del proprio modo di lavorare impiegando tempi e risorse contenuti.

 I modelli di processi, anche nel caso in cui siano corretti e perfettamente rappresentativi della realtà, già con un numero non eccessivamente elevato di attività sono difficilmente leggibili, ma soprattutto quasi impossibili da analizzare. Il modo di lavorare di un'organizzazione, soprattutto in alcuni contesti internazionali, trasversali a differenti aree geografiche, o sottoposti a dove regole () sono particolarmente c, possono esistere comportamenti molto diversi. Spesso alcuni di questi sono la regola (ossia si presentano nella maggior parte dei casi), altri rappresentano delle eccezioni (seguite solo in casi specifici e rari), ma non per questo meno importanti o rappresentative. può però diventare importante essere in grado di distinguerla in fase di identificazione o di analisi per facilitare (). La capacità di identificare le eccezioni è di fondamentale importanza.
[1]

La Process Intelligence permette di estrarre la descrizione di processi estremamente complessi (a piacere), ma nel caso in cui questi sia troppo complessi (i così detti diagrammi a spaghetti (spaghetti diagram)) mette a disposizione una serie di strumenti che permettono di distinguere i comportamenti più frequenti da quelli meno, ottenendo diagrammi più semplici e leggibili. Inoltre, applicando dei filtri  all'event log oppure aggregando gli eventi (utilizzando ad esempio informazioni semantiche) è possibile limitare le dimensioni, e quindi la leggibilità, dei modelli ottenuti.

[1] Michael Rosemann, Potential Pitfalls of Process Modeling 2006