venerdì 12 giugno 2009
I principali tool software di Query reporting: B.O., Microstrategy, Cognos, DataTime
- al processo, cioè tutti quei processi aziendali finalizzati alla raccolta e all’analisi di informazioni strategiche per le organizzazioni per ottenere un vantaggio competitivo sulla concorrenza;
- alla tecnologia utilizzata per realizzare questi processi;
- al risultato, cioè le informazioni che si ottengono in output da questi processi.
BUSINESS OBJECTS
Business Objects è il primo fornitore al mondo per quanto riguarda soluzioni di Business Intelligence. Attraverso le sue applicazioni permette alle aziende di tracciare, comprendere e gestire le proprie prestazioni per dare l’opportunità di ottimizzarle. Le caratteristiche principali dei prodotti Business Objects sono:
1) il reporting
2) la gestione di dashboard e scorecard
3) le applicazioni per la customer intelligence
4) il reporting finanziario e le extranet dedicato a partner e clienti
MICROSTRATEGY
Microstrategy è un’altra società fornitrice di soluzioni Business Intelligence, che rende disponibili funzionalità di monitoraggio, reporting e analisi tutte in una sola architettura software. Con il software in questione è possibile un controllo delle prestazioni aziendali in real time tramite un monitoraggio costante delle metriche; fornire informazioni dettagliate per le decisioni operative attraverso i report, che consentono di ricavare informazioni utili su performance passate e presenti; l’analisi dei dati con l’obbiettivo di scoprire i trend significativi nelle performance dell’azienda.
COGNOS
Anche le soluzioni progettate da Cognos sono di supporto al decision making per gestire meglio la performance aziendale. I prodotti sviluppati consentono un’esplorazione e un’analisi di grandi volumi di dati in tempi trascurabili con analisi comparative delle performance che prendono in considerazione molteplici aspetti; è importante anche la parte di scorecarding, che fornisce una visione d’insieme delle performance a fronte degli obbiettivi, collegando inoltre indicatori ai responsabili delle iniziative aziendali: si perviene così ad una gestione integrata delle performance; una istantanea delle performance aziendali invece è data dalla dashboard che tramite l’utilizzo di report, mappe e grafici rende minimi i tempi decisionali.
DATA TIME REPORTING SOLUTION
Data Time Reporting Solution è un software open source che fornisce la reportstica più moderna e potente disponibile ad oggi sul mercato. È un software famoso per la sua flessibilità che consente all’utilizzatore di interagire a diversi gradi: si possono creare report con qualsiasi tipo di layout, si possono controllare pressoché tutti gli elementi grafici e stilistici,… Possiamo identificare minimo cinque aree in cui si consente all’utente di fornire codice personalizzato:
1) ETL: si possono trasformare in modo arbitrario i record di output nella fase di estrazione;
2) Aggregazione misure: si possono specificare funzioni di aggregazione definite direttamente dall’utente nella fase di costruzione del report;
3) Funzioni di griglia: si possono creare funzioni utente dei dati in griglia dopo che il report è stato creato;
4) Alerts: si possono definire Alerts fornendo tramite codice la funzione scatenante;
5) Funzioni di totalizzazione delle misure e delle funzioni griglia.
I report sono inoltre pubblicabili su web tramite due diverse architetture: updatable se sono solo report pensati per essere consultati e interactive se si vuole consentire l’interazione utente-report.
ETL: principali software e funzioni

I sistemi informativi aziendali sono sviluppati in tre differenti livelli: il primo costituito dai sistemi di supporto operativo ERP e CRM, il secondo dalle basi dati direzionali e il terzo dai sistemi di business intelligence. L’applicazione ETL (extract, transform, load) si va a collocare tra il primo ed il secondo di questi livelli, e la sua funzione principale è rendere disponibili i dati aziendali raccolti dalle fonti interne più disparate, al fine di renderli disponibili nei tempi e nei modi più consoni per l’utilizzo ideale. Per le aziende complesse è infatti problema giornaliero il trasferire dati e informazioni da un posto ad un altro, e il più delle volte questi sono allocati in sistemi diversi tra loro. È proprio per questo che viene in aiuto l’ETL. Grazie ai software dedicati si riduce considerevolmente il tempo per condurre attività di Business Intelligence proprio per la rapida creazione di flussi di dati e di Data Warehouse.
Le tre fasi dell’ETL sono:
1- Estrazione: vengono estratti i dati dalla sorgente del sistema e caricati in un DW temporaneo;
2- Trasformazione: si convalidano i dati estratti (è la parte fondamentale del processo);
3- Caricamento: si caricano i dati trasformati in un DW per la visualizzazione.
Dato l’inevitabile aumento della complessità dei sistemi informatici e conseguente diversità delle sorgenti, i software ETL richiedono la più ampia portata di compatibilità possibile per i diversi pacchetti di applicazioni, mainframe, database, files,… Inoltre la latenza dei processi può essere batch (aggiornati quotidianamente, o anche più di rado), o near-real-time (aggiornamenti ogni ora, o ogni minuto).
Oltre alla riduzione del tempo “sprecato”, le applicazioni in questione danno anche la possibilità di creare processi che potranno venire riutilizzati, magari variando solo alcuni parametri superficiali.
Essendo fondamentale l’interoperabilità tra i diversi sistemi aziendali, l’ETL non può essere considerato solamente un software, ma una parte nuova e ad altissimo valore della Business Intelligence aziendale, che può adesso avvalersi di un valido strumento che permette di rendere esplicito il know-how che altrimenti sarebbe rimasto isolato all’interno di gruppi ristretti di persone. Se giustamente interpretato l’ETL può portare benefici impensabili alla gestione aziendale.
Ci sono diversi software ETL in commercio, ma i più importanti sono:
- IBM InfoSphere DataStage: supporta la raccolta, l'integrazione e la trasformazione di volumi elevati di dati, con strutture di dati semplici e complesse;
- SQL Server Integration Services: tra le varie funzioni possiede una serie di strumenti grafici che consentono la creazione di soluzioni senza la necessità di compilare righe di codice;
- Oracle Data Integration Suite: i suoi componenti danno vita a un framework aperto e omogeneo per l'integrazione dati che abbraccia applicazioni eterogenee come IBM DB2, MySQL, Microsoft SQL Server, Oracle Database, ecc.
giovedì 11 giugno 2009
Datawarehouse e sistemi OLTP: differenze e analogie
Un data warehouse (o DW) (magazzino di dati), è un archivio informatico contenente i dati di un'organizzazione, che consente di produrre facilmente relazioni ed analisi.
Componenti essenziali di un sistema Data warehouse risultano essere anche gli strumenti per localizzare i dati, per estrarli, trasformarli e caricarli, come pure gli strumenti per gestire un dizionario dei dati.
Una definizione ampliata comprende inoltre gli strumenti per gestire e recuperare i metadati e gli strumenti di business intelligence.
II DW rappresentano lo strumento per l’evoluzione del dato in informazione.
Dunque, secondo la definizione riportata, il DW deve essere:
- Orientato al soggetto, il DW è orientato a temi aziendali specifici piuttosto che alle applicazioni o alle funzioni. In un DW i dati vengono archiviati in modo da essere facilmente letti o elaborati dagli utenti. L’obiettivo, quindi, non è più quello di minimizzare la ridondanza mediante la normalizzazione, ma quello di fornire dati organizzati in modo tale da favorire la produzione di informazioni;
- Integrato: nel data warehouse confluiscono dati provenienti da più sistemi transazionali e da fonti esterne. L’obiettivo dell’integrazione può essere raggiunto mediante l’utilizzo di metodi di codifica uniformi, mediante il perseguimento di una omogeneità semantica di tutte le variabili, mediante l’utilizzo delle stesse unità di misura;
- Variabile nel tempo: nel DW sono contenute una serie di informazioni relative alle aree di interesse che colgono la situazione relativa ad un determinato fenomeno in un determinato intervallo temporale piuttosto esteso. Ciò comporta che i dati contenuti in un DW siano aggiornati fino ad una certa data che, nella maggior parte dei casi, è antecedente a quella in cui l’utente interroga il sistema;
- Non volatile: tale caratteristica indica la non modificabilità dei dati contenuti nel DW che consente accessi in sola lettura. Ciò comporta una semplicità di progettazione del database rispetto a quella di un’applicazione transazionale.
Il datawarehouse si inserisce all’interno degli OLAP (On Line Analytical Processing) che presentano una struttura dati costituita da poche tabelle non normalizzate e prevedono una serie di operazioni complesse, che possono coinvolgere molti dati, per il supporto alle decisioni. Tutte queste caratteristiche differenziano i datawarehouse dai sistemi OLTP (On-Line Transaction Processing) i quali non prevedono la creazione di banche dati separate dal momento che le analisi vengono effettuate direttamente sui dati di esercizio. Questa soluzione permette di avere i dati
sempre aggiornati ed evita fasi intermedie di trasformazione dei dati stessi; per la sua stessa natura, tuttavia, non è facilmente applicabile in situazioni dove la quantità di dati da analizzare sia molto elevata ed in questi casi viene generalmente preferito l'utilizzo di analisi di tipo OLAP. Tradizionale elaborazione di transazioni, le quali realizzano i processi operativi dell’azienda-ente, operazioni predefinite e relativamente semplici, coinvolgimento di un esiguo quantitativo di dati, dettaglio e
aggiornamento di questi ultimi, sono alcune delle caratteristiche rilevanti dei sistemi OLTP.
A differenza dei database OLTP (Online Transaction Processing),che hanno strutture complesse,il cui scopo è quello di acquisire volumi elevati di transazioni di modifica e aggiunta di dati, lo scopo dei datawarehouse consiste nell'organizzare grandi quantità di dati stabili per agevolare le operazioni di analisi e recupero.
I database relazionali OLTP sono ideali per la gestione di dati in evoluzione. Generalmente sono utilizzati da diversi utenti che eseguono contemporaneamente transazioni che comportano la modifica dei dati in tempo reale. Sebbene le singole richieste di dati da parte degli utenti facciano in genere riferimento a poche righe, vengono eseguite contemporaneamente molte di queste richieste.
I database OLTP sono progettati per consentire alle applicazioni transazionali di scrivere solo i dati necessari per la gestione di una singola transazione nel modo più rapido possibile.
Il Sistema Informativo Aziendale è identificabile come quel complesso di strumenti, risorse e attività che rileva in modo sistematico, elabora, scambia e archivia dati con lo scopo di produrre e distribuire le informazioni nel momento e nel luogo adatto e
alle persone che in azienda ne hanno bisogno.
I sistemi informativi aziendali svolgono tre funzioni principali:
- Acquisizione di dati e comunicazione
- Registrazione (storage) e ricerca dei dati
- Trattamento e reporting
La sua componente informatizzata è costituita da due categorie di strumenti per la gestione dei dati:
a) Data Base per l’elaborazione delle transazioni:sistemi che supportano in tempo reale le attività giornaliere inerenti il business dell’azienda.
b) Data Base per il Supporto alle Decisioni: sistemi di supporto alle scelte strategiche del management.
SQL
Nel 1975 viene sviluppato un prototipo chiamato SEQUEL-XRM; con esso si eseguirono sperimentazioni che portarono, nel 1977, a una nuova versione del linguaggio chiamato SQL. Su di esso si sviluppò il prototipo System R, che venne utilizzato da IBM esclusivamente per usi interni. Ma visto il suo trionfo, anche altre società iniziarono subito a sviluppare prodotti basati su SQL. Nel 1981 IBM
iniziò così a vendere alcuni prodotti relazionali. SQL divenne subito lo standard industriale per i software che utilizzano il modello relazionale.
L'American National Standards Institute - Istituto Americano di Normalizzazione, più noto come ANSI, un'organizzazione privata non a fini di lucro che produce standard industriali per gli Stati Uniti, lo adottò come standard fin dal 1986, senza apportare modifiche sostanziali alla versione inizialmente sviluppata da IBM. Negli anni successivi si realizzarono altre versioni, che furono SQL/89, SQL/92 e
SQL/2003.
Tale processo di standardizzazione mirava alla creazione di un linguaggio che funzionasse su tutti i DBMS relazionali, ma questo obiettivo non fu mai raggiunto.
Tanti sono i linguaggi SQL che presentano differenze sostanziali l’uno con l’altro. Tra i più noti ricordo Oracle SQL e My SQL.
SQL è un linguaggio dichiarativo,ossia non richiede la stesura di sequenze di operazioni, ma di specificare le proprietà logiche delle informazioni ricercate. E’ composto dal DDL (Data Definition Language), che permette di creare e cancellare database o modificarne la struttura, dal DML (Data Manipulation Language), attraverso cui è possibile inserire, cancellare, modificare e leggere i dati e il DCL (Data Control Language) che gestisce utenti e permessi.
Principali prodotti software per l'archiviazione delle informazioni
Le attuali applicazioni dei Data Base permettono l’accesso ai dati a più utenti contemporaneamente, questo grazie al fatto che sono stati sviluppati DBMS che, utilizzando una sola copia dei dati, permettono la creazione di più rappresentazioni logiche di questi, riducendone la ridondanza e l’inconsistenza.
Quando s’installa il software di gestione del DBMS per la prima volta, è necessario provvedere a costruire le basi di dati amministrative, oltre che, eventualmente, a sistemare altri file di configurazione. Per questo, di solito il software del DBMS include un programma che predispone tali basi di dati speciali con una configurazione iniziale predefinita.
I programmi accedono alle basi di dati attraverso un protocollo di comunicazione con il DBMS. Il protocollo in questione dipende dal DBMS, ma generalmente consente di trasportare delle istruzioni SQL.
I DBMS svolgono un ruolo fondamentale in numerose applicazioni informatiche, dalla contabilità, la gestione delle risorse umane e la finanza fino a contesti tecnici come la gestione di rete o la telefonia.
Se in passato i DBMS erano diffusi principalmente presso le grandi aziende e istituzioni (che potevano permettersi l'impegno economico derivante dall'acquisto delle grandi infrastrutture hardware necessarie per realizzare un sistema di database efficiente), oggi il loro utilizzo è diffuso praticamente in ogni contesto. L'espressione applicazione enterprise, che nel gergo informatico si riferisce ad applicazioni legate al business delle aziende che le utilizzano, implica quasi "per definizione" la presenza di una o più basi di dati amministrate da uno o più DBMS.
I principali prodotti software per l'archiviazione delle informazioni (DBMS) sono:
Software proprietario
-4th Dimension
-ADABAS (Software AG)
-AskSam
-DB2 (IBM)
-DATAllegro
-Caché (InterSystems)
-FileMaker Pro (FileMaker, Inc., in precedenza Apple)
-FrontBase
-IMS/DB (IBM)
-Informix (IBM)
-Ingres (Computer Associates)
-Microsoft SQL Server (Microsoft)
-Microsoft Access (Microsoft)
-Mimer SQL (Mimer AB)
-mSQL
-Netezza
-Oracle (Oracle Corporation)
-Ovrimos
-Progress RDBMS (Progress Software Corporation)
-SESAM
-SQL Anywhere Studio
-Sybase SQL Server
-Teradata (NCR Corporation)
-TimesTen (TimesTen, Inc.)
Open source o free software
-Berkeley DB (Sleepycat Software)
-Dataman
-DBM
-Drizzle
-Emdros
-Firebird SQL (The FirebirdSQL Foundation)
-GigaBASE
-HSQL Database Engine
-HyperNetDatabase
-MaxDB (prima SAP DB e Adabas)
-Metakit
-MySQL (MySQL AB)
-Ozone
-PicoSQL (un Dbms italiano)
-PostgreSQL (in precedenza Postgres) (PostgreSQL Global Development Group)
-SQLite (di pubblico dominio)
-tdbengine
-ZODB
- ORACLE: è uno tra i piu’ famosi database management system.
Ha coperto e copre tuttora un ruolo fondamentale nel campo dei DBMS, è il pioniere per eccellenza nello studio delle basi di dati, infatti è il primo. in termini di tempi di sviluppo, ad implementare nuove tecnologie.
La societa’ informatica che lo produce è la Oracle Corporation, una delle piu’ grandi nel mondo, fonadata nel 1977 e con sede in California. ORACLE è stato il primo DBMS commerciale basato su SQL, era infatti già disponibile nel lontano 1979.
- MySQL: la sua popolarita’ è amplificata grazie alla presenza del DBMS all’interno della
piattaforma LAMP, orientata allo sviluppo per le applicazioni Web. Infatti tutti i software usati in questa piattaforma vantano grandi successi, riconoscimenti internazionali e grande stabilità.
MySQL è rilasciato con licenza GPL e cio’ significa che i sorgenti sono di pubblico accesso.
- PostGreSQL: è un database indipendente al 100%. Non è gestito da nessuna azienda. E’ nato come un esperimento e continua ad esserlo dopo oltre 20 anni; viene sviluppato da una grande comunita’ di programmatori ed è supportato da una serie di aziende. E’ un DBMS open source.
- Sequel Service: è il database prodotto dalla Microsoft. Nelle prime versioni era utilizzato per basi di dati medio-piccole, ma dalla versione 2000 è stato utilizzato anche per la gestione di basi di grandi dimensioni.
- Access: creato da Microsoft, è inserito nel pacchetto Office Professional ed unisce il motore
relazionale Microsoft Jet Database Engine con una interfaccia grafica. Access presenta il doppio vantaggio di poter essere utilizzato sia da sviluppatori software esperti, sia da programmatori alle primissime armi. A differenza di altri ambienti di sviluppo, in Access un unico file comprende tutti gli strumenti per lo sviluppo delle applicazioni: tabelle, query, maschere, report. Nelle tabelle vengono memorizzati i dati; le query sono gli strumenti per l'interrogazione ed la manipolazione dei dati che usufruiscono di un mini-SQL; le maschere permettono l’interazione con i dati delle tabelle attraverso un'interfaccia grafica; i report consentono di visualizzare dei risultati basati sui dati.
- Times Ten: database realizzato da Oracle, costituito da infrastrutture software progettare per gestire una grande quantità di dati. Per questa ragione sono maggiormente usati in programmipensati per i mercati finanziari, le telecomunicazioni, in applicazioni e-commerce.
Content Management System
Esistono due tipi principali di CMS:
• CMS specializzati: sono quei sistemi intenzionalmente progettati per un tipo preciso di contenuti, un'enciclopedia on-line o un blog, per esempio.
• CMS generici, che tendono ad essere più duttili per consentire la pubblicazione di diversi tipi di
contenuti.
Tecnicamente un CMS è un'applicazione lato server, divisa in due parti: la sezione di
amministrazione (back end), che serve ad organizzare e supervisionare la produzione dei contenuti, e la sezione applicativa (front end), che l'utente web usa per fruire i contenuti e le applicazioni del sito.
Un CMS, quindi, è uno strumento indispensabile per chi deve gestire siti e portali a carattere
informativo (aziendale o giornalistico), con la necessità di semplificare, organizzare e controllare le attività di pubblicazione ed aggiornamento. Un sistema CMS permette di gestire l'aggiornamento ed il flusso delle informazioni attraverso soluzioni software che rendono semplici ed affidabili i processi di gestione dei contenuti.
Una delle applicazioni più utili dei sistemi di CMS si ha nella gestione dei portali, dove vengono
impiegati i CMS come strumento di pubblicazione flessibile e multiutente.
I CMS sono solitamente orientati alla gestione di testi (news, articoli ecc.), immagini, liste di
discussione, forum, materiale scaricabile; a volte danno la possibilità di gestire anche più versioni
dello stesso sito (ad esempio, HTML o WAP).
I CMS consentono di definire utenti, gruppi e diritti, in modo da poter permettere una distribuzione del lavoro tra più persone. Per esempio, sarà possibile definire una classe di utenti abilitati esclusivamente all’inserimento delle novità, mentre si potrà riservare la scrittura di articoli ad un altro gruppo, e limitare tutti gli altri alla sola consultazione.
Un CMS è tanto più efficiente quanto più è specializzato. Molti piccoli portali fanno ricorso a CMS
distribuiti (scritti da altri e messi a disposizione gratuitamente o a pagamento) di tipo generico; per quanto un CMS possa essere flessibile, un sito basato su questa struttura in genere presenta un aspetto poco personalizzato. I contenuti, inoltre, saranno sempre ancorati a quanto previsto da chi ha progettato il CMS e non alle esigenze di chi pubblica il sito.
I problemi di gestione possono derivare dal fatto che chi pubblica o gestisce il sito può usare il
CMS per intervenire sui contenuti e sull’aspetto, ma generalmente non è in grado di intervenire
direttamente (o far intervenire) sulla struttura del CMS stesso; questo è un limite strettamente
connesso al vantaggio primario dei CMS: pubblicare un portale senza doverne progettare la
struttura o senza possedere le conoscenze tecniche (o le risorse finanziarie) per uno sviluppo
personalizzato.
Questi software non si rivolgono ad esperti informatici e quindi gli strumenti di base che offrono adempiono perfettamente al loro compito, senza bisogno di entrare in macchinosi tecnicismi. Difatti, laddove si desideri un grado di flessibilità maggiore, esistono appositi programmi open source, di ben più complesso utilizzo.
Utilizzando software open source si ha la possibilità di accedere al codice sorgente del prodotto
permette di personalizzare il software sulla base delle proprie esigenze a patto di non avere
necessità di apportare modifiche al prodotto adottato. In questo caso, vanno messi in conto i costi per lo sviluppo di moduli personalizzati o funzioni particolari a meno di non possedere in proprio o nella propria struttura aziendale le conoscenze tecniche per intervenire nel codice sorgente.
I portali di una certa importanza non fanno mai ricorso a CMS distribuiti bensì usano programmi e database progettati su misura, ovvero CMS personalizzati e dunque necessariamente specializzati; in questo modo la struttura e la presentazione vengono realizzate tenendo presenti i contenuti che il sito dovrà ospitare e potranno essere modificati in seguito a nuove esigenze.
Dopo un’attenta valutazione da parte di moltissimi utenti su un grosso bacino di CMS opensource, il CMS Award indetto dall’editore inglese Packt comincia a dare i suoi frutti.
Ecco una lista di alcuni tra i più utilizzati CMS open source:
Alfresco
ASP Nuke
ASPCode CMS
ASPNukers CMS
CMSaccessibile
CMSimple
CMS Made Simple
CoCoComs
Contenido
dBlog CMS Open Source
dir2web
Docebo CMS
DotNetNuke
Drupal
eZ publish
Fedora Commons
Flatnuke
Geeklog
GuppY
Galatolo WebManager
ICE Integrated content management
iTCms
JAPS
JBoss Portal
Joomla
LG-Nuke
Liferay
LucidCMS
Magnolia
Mambo
Md-Pro
MemHT Portal
MKPortal
MovableType
New-CMS
Nuke-Evolution
Nuxeo
OpenASP
OpenCms
Pepsi CMS
Phoenix Portal
PhPeace
PHPNuke
PHP-Fusion
phpwcms
Plone
PostNuke
Rainbow
Rockchock
SPIP
Syntax Desktop
Textpattern
Typo3
WebGUI
WebPortal
Webmatic
Website Baker
WordPress
Xaraya
XCMS
XOOPS
Zen Cart
Classificazione dei software web per la comunicazione delle informazioni
tecnologie a base informatica, in particolare i computer, abilitano peculiari forme di comunicazione a distanza fra gli esseri umani.
Si parla di comunicazione mediata dal computer quando, usando un computer, è possibile avviare e sostenere uno scambio comunicativo a distanza, in modalità grafica o testuale, sincrona o asincrona, attraverso una rete telematica fatta da due o più computer (come la rete Internet).
Tra i canali di
comunicazione troviamo:
• E-mail: è un servizio internet grazie al quale chiunque può inviare o ricevere messaggi in tempo
reale.
• Blog: è un diario in rete che permette a chiunque di creare un proprio sito in cui pubblicare storie,
informazioni, opinioni in completa autonomia.
• Newsgroup: è un gruppo di discussione in uno spazio virtuale creato su una rete di server
interconnessi. L’accesso a queste aree tematiche avviene per mezzo di programmi chiamati news
clients.
• Forum: indica una struttura informatica contenente discussioni e messaggi scritti dagli utenti. E’ in un certo senso una comunità virtuale, in cui gli utenti, spesso abituali, affrontano e discutono
specifiche tematiche. Non tutti i forum sono a libero accesso, molti infatti richiedono una
registrazione.
• Chat: il termine “chat” deriva dall’inglese “chiacchierata”, si riferisce a degli spazi virtuali
(chatroom) in cui l’utente dialoga in tempo reale, permette di mettersi in contatto con chiunque,
generalmente in forma anonima. Offre un’ampia gamma di servizi sia telefonici che messaggistici.
Tra i vari tipi di chat i più usati sono: MSN Live Messenger, Skype, Yahoo! Messenger.
• Homepage: letteralmente “pagina di casa”, è solitamente la prima pagina di un sito web.
• Social Network: “rete sociale” consiste in un qualsiasi gruppo di persone connesse tra loro.
• Condivisione contenuto: esistono degli spazi virtuali che consentono la condivisione di materiali
(foto, video) tra gli utenti.
Elementi teorici e strutturali del report
Il Report Impresa integra:
- i dati identificativi del soggetto richiesto.
- i dati sintetici di bilancio su fatturato, valore della produzione e numero di dipendenti.
- i codici RAE (Ramo di Attività Economica) e SAE (Settore di Attività Economica)
- l'elenco dei soci e degli esponenti d'impresa e le loro cariche in altre società.
- i protesti su sede ed esponenti d'impresa.
- le informazioni pregiudizievoli su sede ed esponenti d'impresa.
- l'elenco delle società controllate e collegate.
- le informazioni sulla sede e sulle unità secondarie.
- le procedure concorsuali in atto
- gli abstract delle notizie pubblicate da oltre 130 quotidiani nazionali, regionali e locali
sull'impresa. - il rating (valutazione), che consente di avere immediatamente un quadro generale dell'affidabilità di un'impresa.
- a richiesta, i Bilanci Riclassificati, per conoscere il reale stato economico delle società di capitali e per contestualizzarne le performance all'interno del settore d'appartenenza.
I sistemi di reportistica, sono un ambito dei sistemi informativi e si occupano di fornire supporto alle decisioni strategiche di un’organizzazione.
Un report informativo è un documento agile e centrato su dati interessanti per il soggetto a cui è diretto, è costituito da visualizzazioni tabellari e grafiche.
Quando si conoscono di un report più dimensioni di analisi è possibile raccogliere e rappresentare i dati in un ”ipercubo informativo”, in cui ogni componente di un dato è rappresentata su una dimensione spaziale, studiando così le dipendenze di queste dimensioni.
Oltre alle dimensioni, e alla misura, ogni report ha:
- Aggregazioni: aggregazione di dati che permette una visione congiunta di dati e informazioni
- Le funzioni aggregate: permettono di supportare le funzionalità del provider di dati.
Tecniche note nella visualizzazione dei report sono:
- Drill-down: (perforare un terreno) possibilità - una volta visualizzato il dato complessivo relativo ad una dimensione gerarchizzata di analisi - di esplorare tutta la gerarchia.
- Slice & Dice: (operazione di divisione di una torta) possibilità di restringere l’analisi solo ad alcune delle occorrenze delle dimensioni e solo ad alcune delle dimensioni proposte. I dati visualizzati si riferiranno unicamente alle occorrenze selezionate.
Le funzioni di aggregazione eseguono un calcolo su un set di valori e restituiscono un valore
singolo. La dimensione di un report si riferisce ad uno spazio K dimensionale
in cui si collocano le unità statistiche, è una forma di visualizzazione geometrica. Nel
momento in cui più unità presentano le medesime modalità in più caratteri, sarà possibile aggregarle mediante una funzione che vada a sintetizzarle per poterle poi rappresentare in una semplice matrice di dati. La funzione di aggregazione è detta "misura", per ricondurre il tutto ad uno schema matriciale, si opera una misurazione di ciascuna modalità: una sintesi,
una aggregazione.
Nei database, le funzioni di aggregazione più diffuse sono:
COUNT
Restituisce il numero di righe che soddisfano la condizione specificata nella clausola WHERE.
SUM
Questa funzione somma tutti i valori di una colonna. La funzione SUM opera soltanto con i numeri, se viene applicata a un campo non numerico, si ottiene un messaggio di errore.
AVG (average)
Calcola la media aritmetica dei valori di una colonna. La funzione AVG opera soltanto con i numeri.
MAX
Questa funzione serve a trovare il valore massimo di una colonna. La funzione MAX opera anche con i caratteri.
MIN
Questa funzione opera in modo analogo a MAX, ad eccezione del fatto che restituisce il valore
minimo di una colonna.
La funzione MIN opera anche con i caratteri: la stringa ‘AAA’ è minore della stringa ‘BB’.
L'obiettivo di un Sistema di Reportistica all'interno di una organizzazione è quello di documentare in maniera dettagliata ed analitica le attività di preminente interesse: questo patrimonio informativo deve essere sempre aggiornato e corretto secondo un'univoca prassi organizzativa che lo tuteli da lacune ed incongruenze. I Sistemi di Reportistica vengono sviluppati in ambiti aziendali complessi che hanno previsto una soluzione di Datawarehouse. Una delle finalità di un processo di Datawarehouse è proprio quella di strutturare un contesto informativo hardware e software capace di rispondere alle esigenze dello scenario organizzativo nel senso più ampio possibile. In tali contesti si hanno coerenza e consolidamento dei dati, velocità nell’accesso alle informazioni esupporto per l’analisi delle stesse. Con l'aumentare della mole di dati a disposizione di una organizzazione i vantaggi di un'elaborazione centralizzata dei documenti si palesano nei tempi di esecuzione dei singoli report: la particolare configurazione hardware delle postazioni su cui vengono materialmente ospitate le risorse del sistema permette l'ottimizzazione delle richieste al sistema e ne diminuisce il carico di attività rispetto alla situazione in cui singoli utenti ricercano
informazioni individualmente. La standardizzazione dei documenti consente inoltre - secondo
l'approccio all'informazione come bene aziendale - una distribuzione ottimale delle conoscenze ed una visione dell'attività più conforme e concorde fra le varie funzioni dell'organizzazione, di
continuo aggiornata sulla base della disponibilità della fonte dei dati.
Le fasi di sviluppo di un sistema di reportistica sono :
1)Identificazione delle Esigenze Informative e di Visualizzazione
2)Identificazione del Contesto Informativo e delle Fonti
3)Identificazione della Configurazione del Sistema Hardware/Software
4)Fase di Integrazione Hardware/Software delle Risorse Informative
5)Preparazione del Report
6)Validazione del Report
7)Fase di Collaudo del Sistema
8)Fase di Esercizio del Sistema di Reportistica
9)I Sistemi di Reportistica - integrati in progetti di Business intelligence - permettono all'utente
finale di disporre di una serie di funzionalità in aggiunta ai report veri e propri
10)Metadati (una descrizione dei dati, così da assicurarne la comprensione)
11)Analisi di tipo tradizionale statistico
12)Rappresentazione con GIS (Sistema informativo geografico)
13)Esecuzione di Script personalizzati con linguaggi di basso livello
14)Uso di Componenti Web
Architettura di un sistema di reportistica:
Si parla di Architettura di Sistema_client/server di un Sistema di Reportistica informatizzato se esso è funzionalmente strutturato in modo da conservare in un singolo Repository - un Dominio, logicamente associato al Server - i documenti prodotti rendendoli accessibili dalle postazioni Client dei fruitori. La funzione di centralizzazione può essere prevista da architetture complesse ed integrate all'interno di Reti e può prevedere differenti livelli di autorizzazioni e di relativa operatività sul sistema (utenti amministratori, utenti visualizzatori, utenti modificatori e creatori di nuovi documenti, etc..). La fruizione dei documenti finali può essere allargata anche agli utenti di una comunità più ampia . Più in generale, sempre più spesso i siti di Enti ed Istituzioni possono prevedere Sistemi di Reportistica via web che permettano da un lato di documentarne le attività, dall'altro di rendere disponibili dati di sintesi per approfondimenti tematici. I documenti - una volta strutturati e prodotti - vengono resi disponibili alla visualizzazione da parte degli utenti e da questi possono essere salvati sulla postazione locale. Laddove il sistema lo preveda e lo permetta il singolo utente può a sua volta modificare il documento salvato e renderlo fruibile reinviandolo al repository.
Il sistema può mantenere traccia delle variazioni e dei relativi autori e assicurare che il documento sia aggiornato in conseguenza a nuovi caricamenti di dati sui sistemi alimentanti.
mercoledì 10 giugno 2009
Formalizzazione dei concetti statistici di base
L'oggetto dell'osservazione di ogni fenomeno individuale che costituisce il fenomeno collettivo è detto unità statistica.
Carattere
fenomeno oggetto di studio, le cui diverse manifestazioni, dette modalità, vengono rilevate o misurate sulle singole unità che costituiscono la popolazione.
Classificazione
Le attività di classificazione hanno il fine di organizzare le entità del dominio in esame, la collocazione delle entità nei diversi contenitori si basa sulla individuazione di differenze di rilievo tra le entità stesse, cioè su processi di distinzione.
Matrice dati
Consiste in un insieme rettangolare di numeri o più in generale di caratteri, dove in riga abbiamo le unità statistiche ed in colonna le variabili; in ogni cella derivante dall'incrocio tra riga e colonna
abbiamo un dato, ossia il valore registrato per una particolare variabile ed un particolare caso.
Dimensione
Attributo strutturale di un cubo, ovvero una gerarchia organizzata di categorie (livelli) che descrivono i dati della tabella dei fatti.
Funzione di aggregazione
Funzione che esegue un calcolo su una colonna in un set di righe e restituisce un unico valore.
Aggregazione
Tabella o struttura contenente dati precalcolati per un cubo.
Cubo
Set di dati organizzati e riepilogati in una struttura multidimensionale definita da un set di dimensioni e misure con il ruolo di raccogliere utenti o gruppi con le stesse autorizzazioni di accesso allo stesso.
Misura
Le misure sono i valori su cui si basano l'aggregazione e l'analisi.
Aggregate functions
Forniscono informazioni statistiche relative ad un set di records (domain). Per esempio, e` possibile utilizzare una aggregate function per contare il numero di records di un recordset, oppure calcolare il valore medio dei valori di un particolare campo.
Rapporto tra terminologia statistica e informatica
Ambito della rilevazione definito dal "caso statistico", ossia dalla categoria di enti che hanno lo stesso nome ("nome comune"). Gli enti rientranti nel campo e sottoposti a rilevazione si chiamano unità statistiche.
Unità che compone un campione. Conviene distinguere questa denominazione da quella di "unità di campionamento", con la quale si intende una delle unità che compongono un aggregato che deve essere sottoposto a campionamento.
Unità di rilevazione
Unità empirica su cui si basa la rilevazione. Non coincide necessariamente né con l’unità che fornisce le informazioni ("unità d’informazione"), né con l’unità statistica cui, in ultima analisi, si è interessati, ogni volta che essa ne raggruppa più d’una ("unità di analisi", "unità di tabulazione").
Nel censimento della popolazione, la famiglia di censimento è una delle unità di rilevazione; se la famiglia è composta di un solo membro, l’unità di rilevazione coincide con l’unità statistica di analisi, altrimenti si hanno tante unità di analisi quanti sono i membri della famiglia, in corrispondenza di una sola unità di informazione (il capofamiglia).
Unità di tabulazione
Unità di cui, in una tabella, si presenta la classificazione secondo un assortimento di modalità di caratteri. Il nucleo familiare, in un censimento demografico, non è l’unità statistica (il censito), né una di quelle di rilevazione, ma una derivazione da una di queste (la famiglia di censimento) attraverso il carattere "relazione col capofamiglia"e costituisce oggetto di classificazione e pubblicazione in tavole specifiche.
Unità sperimentale
Unità sulla quale si effettua un esperimento statistico.
Unità statistica
Unità elementare della popolazione statistica. Può trattarsi di una persona fisica (il censito, il
dimesso da un istituto di cura), di una persona giuridica (l’impresa), di un’istituzione (un istituto scolastico), di un evento (un matrimonio, una nevicata) etc.
Tabella di contingenza
Con riferimento a due variabili qualitative, è la tabella a due entrate (righe, colonne) nella quale sono classificabili le osservazioni di un aggregato statistico. Nella tabella, l’elemento nij,
all’incrocio della riga i e della colonna j, è il numero di unità statistiche che possiedono
congiuntamente la modalità i-esima della variabile posta nel senso delle righe e la caratteristica jesima di quella posta nel senso delle colonne.
Un Database Management System è un sistema software progettato per consentire la creazione e la manipolazione efficiente di database.
organizzate in una serie di righe e di colonne. Le righe rappresentano, secondo il linguaggio
informatico, dei record cioè registrazioni di tipo individuale.
La matrice dei dati può essere definita come l’insieme dei caratteri e delle unità statistiche
osservate. Da questa matrice è possibile passare alla tabella di contingenza o di associazione; in esse si riportano frequenze congiunte tra più variabili. Queste tabelle rappresentano per gli statistici dei punti di partenza; per gli informatici invece costituiscono dei report.
Le tabelle di contingenza sono tabelle utilizzate in statistica per rappresentare e analizzare le
relazioni tra due o più variabili. In esse si riportano le frequenze congiunte delle variabili.
Generalmente le tabelle comprendono dati nominali raggruppati in categorie. Il caso più semplice implica due variabili casuali dicotomiche: le righe della tabella rappresentano i risultati di una variabile e le colonne i risultati dell'altra, i numeri all'interno della tabella sono le frequenze di una particolare combinazione di categorie.
Il report aziendale è uno strumento che consente di valutare, attraverso le informazioni, lo stato di salute di una qualsiasi società di capitali o di persone.
Esso è costituito da due elementi fondamentali, che sono:
- dimensioni: sono i caratteri che si misurano sulle unità statistiche; essi costruiscono la parte del
report che non cambia. Di solito quando si considera un report si cerca di non considerare più di due dimensioni, per permettere all’ interessato di ottenere maggiori informazioni sul carattere che ha scelto di studiare.
- misura: un’ elaborazione calcolata su unità statistiche; essa costituisce la parte quantitativa del report che deriva dall’ aggregazione della matrice di dati (come la somma dei soldi spesa di un cliente).
Per costruire un report è necessario considerare le relazioni che s’instaurano tra le diverse tabelle al fine di riunificare l informazione.
In realtà il report è un documento aziendale che viene visualizzato da tutti gli stakeholders, interni ed esterni dell’ azienda.
martedì 9 giugno 2009
La piramide della conoscenza: riflessioni su dati, fatti, informazioni, conoscenza.

La conoscenza è la consapevolezza e la comprensione dei fatti, verità o informazioni ottenuti
attraverso l’esperienza o l’apprendimento: rappresenta l’autocoscienza del possesso delle
informazioni connesse tra loro.
L’aspetto sostanziale della conoscenza è che mentre l’informazione può esistere indipendentemente da chi la può utilizzare, e quindi può in qualche modo essere preservata su un qualche tipo di supporto (cartaceo, informatico, ecc…), la conoscenza esiste solo in quanto esiste una mente in grado di contenerla.
Risulta quindi chiaro che il ruolo del comunicatore non è altro che quello di procurarsi i dati dai quali trarre informazioni quanto più possibile oggettive e quindi avere la giusta conoscenza.
Senza informazione libera non c'è trasparenza in quanto non c è possibilità di risalire alle fonti e soprattutto di poter sventare un'informazione falsa. Ciò che i nuovi mezzi di comunicazione
offrono, in particolar modo Internet, è proprio la possibilità di ricercare nuovi orizzonti di conoscenza.
E mentre Internet cresce a vista d’occhio, il web 2.0 diventa termine di uso comune, i blogs attivi sono decine di milioni, lo UGC (user-generated content) viene adottato da agenzie pubblicitarie, cresce una sempre più evidente e paradossale scollatura fra l’immagine aziendale, il brand “luccicante” venduto sui media e nelle interviste, e la realtà incontrata da chi con la tua azienda ci deve interagire, anche solo per chiedere un rimborso, o una sostituzione. Spesso questa distanza supera di gran lunga l’immaginazione più creativa.
Tutta la strategia di comunicazione verte sul creare una facciata luccicante dove l' azienda è immodestamente sempre la migliore. Ma nella realtà fisica la “facciata”, il famoso brand, creato con tanto dispendio di energie e denari, comincia a vacillare:
- i consumatori non sono più un’audience passiva scoprono i difetti di un prodotto ancora prima dell' azienda madre;
- da consumatori ad agenti di marketing: sono loro che fanno scelte sempre più frequentemente guidate da interessi ecologici, sociali e comunitari, piuttosto che da desideri mirati esclusivamente a soddisfare il proprio piacere. In breve sono loro
che dettano le mode e che determinano il successo di un prodotto; - i media vengono dal basso: blogs, wikis, feed RSS, strumenti di podcasting, web radio ed il live video streaming… possono fare tutto quello che fanno i grandi
network, senza i costi ed i condizionamenti che gli stessi inevitabilmente comportavano.
lunedì 8 giugno 2009
Documenti aziendali
La consapevolezza dell’importanza di rendere partecipe della vita aziendale ogni singolo impiegato, ha esplicitato il bisogno di comunicare il cambiamento all’interno dell’azienda, prima ancora di veicolarlo all’esterno: sono andati così strutturandosi innovativi modelli di organizzazione orientati alla comunicazione, per diffondere in maniera chiara ed impattante notizie, proposte e progetti al personale e agli stakeholders. I format di documento aziendale che meglio rispondono ai moderni dettami del marketing e della comunicazione interna, presentano analogie quali l' identity guidelines, ovvero linee guida da seguire per garantire la coerenza di formato sulla base della corporate identity. Quanto trasmesso visivamente o graficamente tramite ogni pezzo di carta pubblicato, dal biglietto da visita alla lettera, dalla pagina pubblicitaria alla newsletter tecnica o commerciale, dalla relazione annuale sull’andamento dei profitti, alla pubblicazione dei più disparati report aziendali: è d’obbligo un corretto uso dei font aziendali (quando usare quelli con le grazie e senza grazie, il grassetto, corsivo, ecc., dimensioni, stili standard per titoli, titolini, corpo testo, ecc.), uso dei margini e degli spazi, colore Pantone corretto, di modo che tutto sia riconducibile a prima vista ad una determinata azienda. Fondamentale in tal senso è la presenza del marchio logo e del descriptor, elementi base per l’immediata riconducibilità del documento all'azienda e ai valori che essa detiene. Anche la nostra università possiede un preciso programma di identità visiva, che è possibile visionare cliccando sul seguente link: http://www.uniroma1.it/ufficiostampa/identita.php .
Tornando alla comunicazione interna, essa serve principalmente per condividere il progetto organizzativo (la missione e la visione dell'organizzazione), diffondere il know how e organizzare il lavoro. Gli strumenti di comunicazione interna più diffusa sono gli House Organ, le Newsletter, i manuali, operativi, il Fact book/bilancio, le circolari e gli ordini di servizio, i Position paper, la reportistica e i progetti, le relazioni.
Le relazioni aziendali riguardanti il fatturato annuo, le politiche adottate, i progetti sposati, o qualunque altro aspetto di interesse per l’azienda, debbono essere in primo luogo chiare e dettagliate.
È preferibile evitare uno stile retorico ed è necessario tenere bene in conto le competenze tecniche e il know how del pubblico di riferimento in modo da confezionare una relazione comprensibile a tutti. La stessa, nel rispetto dei canoni dell’ identità visiva, sarà impaginata utilizzando il font aziendale, i colori e la formattazione istituzionali, sarà affiancata dal marchio logo e veicolata in formati testuali laddove se ne faccia una diffusione cartacea o tramite mail, oppure in ppt se la stessa dovrà essere presentata da un responsabile ad una riunione così come ad un meeting.
I medesimi accorgimenti comunicativi dovranno essere applicati a tutte le tipologie di documenti aziendali. Particolare attenzione va tuttavia ai cosiddetti elementi intangibili della comunicazione,un surplus emotivo che colpisca il fruitore, veicolando la vision e la mission aziendali, e trasmettendo chiaramente il senso di appartenenza al team aziendale e la preziosità del singolo contributo.
venerdì 5 giugno 2009
Connessioni tra le tecnologie e la mente umana

Derrick de Kerckhove, erede intellettuale di McLuhan, è tra i principali studiosi che hanno approfondito l’argomento delle connessioni tra le tecnologie e la mente umana, investigando le implicazioni determinate dall’uso degli strumenti tecnologici sullo sviluppo della psiche e sulla definizione di nuovi modelli mentali, in un approccio che considera i mezzi di comunicazione “come tecnologie che, investendo il linguaggio e il modo in cui lo utilizziamo, coinvolgono anche le nostre strategie di elaborazione delle informazioni” .
Derrick de Kerckhove sottolinea, dunque, che così come la scrittura non costituisce solo una capacità manuale, ma rappresenta soprattutto la possibilità di classificare e ordinare il pensiero, allo stesso modo l' utilizzo delle nuove tecnologie della comunicazione ha un'immediata ripercussione sulla nostra capacità di sviluppare nuove strutture e modelli mentali.
Il computer e i software si configurano come potenti alleati della mente umana, in grado di estendere notevolmente le nostre abituali capacità cognitive.
Caratteristica del software è la capacità di immagazzinare una quantità pressoché infinita di dati, oltre che di elaborarli ed eseguire su di essi calcoli e analisi sofisticate, invece la mente umana è dotata di creatività, di intuizione, interpretazione soggettiva e reazione agli imprevisti, dunque procede per concetti e non per calcoli.
Tuttavia oggi sono in molti a dimostrarsi scettici nei confronti della cosiddetta “Intelligenza Artificiale” , temendo un impoverimento dell’immagine dell’uomo e dei suoi valori, una sua impotenza di fronte alle sfide della vita. Questo storico dibattito dimostra come, in realtà, troppo spesso gli esseri umani finiscono per diventare vittima delle loro stesse creazioni, cercando di sfidare fino ai limiti del possibile la natura: non bisogna chiedere alla tecnologia di annullare la mente umana, bensì di rappresentare per essa un valido aiuto.