bias

Il bias è una forma di distorsione della valutazione causata dal pregiudizio. La mappa mentale di una persona presenta bias laddove è condizionata da concetti precedenti non necessariamente connessi tra loro da legami logici e validi. Il bias, contribuendo alla formazione del giudizio, può quindi influenzare un'ideologia, un'opinione e un comportamento

l'impero dei sensori

pubblicato 09 apr 2016, 12:33 da Calogero Bonasia   [ aggiornato in data 09 apr 2016, 12:33 ]

Il termine cibernetica deriva dalla parola greca che significa timoniere; venne usato per la prima volta da Norbert Wiener nel 1948 nel suo libro "Cybernetics or control and communication in the animal and the machine", tradotto anche in lingua italiana come "Introduzione alla cibernetica" (pubblicato da Einaudi nel 1953, vedi sotto).

Un dispositivo cibernetico risponde agli stimoli dell'ambiente esterno e a sua volta influenza l'ambiente stesso tramite il cosiddetto "feedback".

Questo concetto viene ripreso alcuni anni più tardi nel libro "Understanding media: the extensions of man", dove si legge:
con l'avvento della tecnologia elettrica l'uomo si estese, creò al di fuori di se stesso un modello vivente del sistema nervoso centrale: è quindi prevedibile la ricerca di equilibrio fra gli altri sensi. Ogni tecnologia è un'estensione o autoamputazione del nostro corpo, che impone nuovi equilibri fra gli altri organi. In quanto estensione della vita sensoriale, ogni medium influenza contemporaneamente l'intero campo dei sensi. Così con la tecnologia elettrica, il nostro sistema nervoso centrale si intorpidisce quando viene esteso e scoperto: è una difesa contro l'eccesso di percezioni.

Nel 1970 venne pubblicato il saggio "Expanded Cinema" scritto da Gene Youngblood, in questo libro venne introdotto il concetto di "tecnosfera" che poi riprese anche un tale Alan Kay sull'articolo pubblicato da Scientific American nel 1977 "Microelectronics and the personal computers". Entrambi si soffermarono sulle "possibilità" offerte da un (futuro) mondo fatto da esseri viventi in carne e ossa ed "esseri elettronici" che oggi chiameremmo Internet of Things.




generare al volo 1000 documenti TIFF (per Windows)

pubblicato 09 apr 2016, 12:30 da Calogero Bonasia   [ aggiornato in data 03 lug 2016, 03:54 ]

Per un test mi serviva generare circa 1000 documenti in formato TIFF... 


ho usato questo semplice script in windows per generarli partendo da un documento "sorgente"


@echo off

for /L %%i IN (1,1,999) do call :docopy %%i

goto end

:docopy

set FN=00%1

set FN=%FN:~-3%

copy sorgente.tif generico%FN%.tif

:end








WebScale infrastructures with Kubernetes and Flannel

pubblicato 07 apr 2016, 08:05 da Calogero Bonasia   [ aggiornato in data 09 apr 2016, 12:51 ]

La capacità di rispondere in poche frazioni di secondo alle richieste degli utenti - indipendentemente dal loro numero - è un fattore determinante per il successo dei servizi sul web. Google conferma che il 2015 è l'anno in cui il numero di interazioni da dispositivo mobile ha superato quelle da desktop, con la conseguente riduzione della durata media delle sessioni di navigazione.

In uno scenario di questo tipo, la razionalizzazione dell'utilizzo delle risorse hardware e la capacità di scalare rispetto al numero di utenti sono fattori determinanti per il successo del business.

In questo intervento Andrea Tosatto (System & Platform Operations in Purple Ocean) racconterà la nostra esperienza di migrazione dei servizi di e-commerce (basati su Magento) da un'architettura tradizionale realizzata con Virtual Machines, ad una innovativa di tipo software-defined basata su Kubernetes, Flannel e Docker.

Spiegheremo le difficoltà che si possono incontrare nella migrazione su container dei servizi critici già in produzione e dimostreremo come sia stato possibile ottenere valore aumentando la resilienza dei sistemi e migliorando i processi di automazione. 

Concluderemo l'intervento presentando il nostro progetto di distribuzione geografica dei nodi master di Kubernetes sfruttando le Software Defined WAN di Viptela, che consentono di incrementare le prestazioni e garantire la continuità di servizio della soluzione.

Container Day 2016
http://2016.containerday.it/





Infrastructure as Code: Managing Servers in the Cloud

pubblicato 27 mar 2016, 02:16 da Calogero Bonasia   [ aggiornato in data 27 mar 2016, 02:23 ]

Technical debt is a metaphor for problems in our system which we leave unfixed. As with most financial debts, your system charges interest for technical debt. You might have to pay interest in the form of ongoing manual workarounds needed to keep things running.


You may pay it as extra time taken to make changes which would be simpler with a cleaner architecture. Or charges may take the form of unreliable or hard to use services for your users.


Software craftsmanship is largely about avoiding technical debt. Make a habit of fixing problems and flaws as you discover them, which is preferably as you make them, rather than falling into the bad habit of thinking "it’s good enough for now".


Martin Fowler talks about the Technical Debt Quadrant, which distinguishes between deliberate versus inadvertent technical debt, and reckless versus prudent technical debt.


Infrastructure as Code (IAC) is a type of IT infrastructure that operations teams can automatically manage and provision through code, rather than using a manual process. Infrastructure as Code is sometimes referred to as programmable infrastructure.


Infrastructure as code, or programmable infrastructure, means writing code (which can be done using a high level language or any descriptive language) to manage configurations and automate provisioning of infrastructure in addition to deployments.


This is not simply writing scripts, but involves using tested and proven software development practices that are already being used in application development.


For example: version control, testing, small deployments, use of design patterns etc. In short, this means you write code to provision and manage your server, in addition to automating processes.


A vast number of tools like vagrant, ansible, puppet, docker makes the whole process even easier. This is even made better by the fact that server hosting sites like aws are providing RESTful apis that can be leveraged.


Virtualisation tools like virtualbox and vagrant or docker are really helpful during development as well.


The IAC process closely resembles formal software design practices in which developers carefully control code versions, test code iterations and limit deployment until the software is proven and approved for production.


Agile organizations want this time to me the bare bones minimum. It is what limits their ability to release new features and fixes to customers. Some organizations have cycle-time down to minutes!


While this is not possible for enterprise applications, the current cycle time of weeks or sometime even months is absolutely unacceptable.


Infrastructure as Code hence has become the cornerstone to allow for the speed that DevOps demands and the management of multiple versions of multiple environments, to handle the CI builds being spun out by development.


Without it, Ops becomes what puts the water (or fall) in water-SCRUM-fall.




modelli di business per Linux e l'Open Source

pubblicato 27 mar 2016, 02:12 da Calogero Bonasia

Mai come in questi ultimi anni il termine innovazione tecnologica è apparso tante volte sui giornali o sulle riviste specializzate e mai come in questi ultimi anni, nel nostro paese soprattutto, questo termine è divenuto frequente nei discorsi di imprenditori, politici e rappresentati delle organizzazioni sindacali.

La necessità sociale dell'innovazione tecnologica è stata riscoperta, dopo anni di torpore e di teorie non vincenti ancora oggi, purtroppo, in auge.

La crisi economica e industriale hanno messo in discussione molti dei principi sui quali era basata la politica industriale sul modello anni '60, orientata ai relativamente facili incrementi di potenzialità produttiva quale conseguenza di una forte domanda di beni di consumo e di investimento.

Oggi in parecchi non si spiegano come mai colossi dell'industria dell'informazione si siano "gettati" nel mondo di "Linux", condividendo le idee di Stallmann e di quelli che come lui sostengono le "libertà del software", apparentemente in contrasto con le dure leggi del profitto.

Ci si chiede da più parti come possa competere sul mercato un'azienda che rivela il suo prezioso bagaglio di conoscenze agli altri (concorrenti) senza chiederne niente in cambio? Quanto potrà durare il "fenomeno" Linux/Open Source? (mi si perdoni l'accostamento, visto che si tratta di due argomenti complementari ma distinti).

Il processo di innovazione tecnologica esula dal concetto più limitante che in genere si dà alla "progettazione" pura e semplice, ma con la quale si è tentati a volte di farla coincidere.

In termini economici classici, a ciascuna fase del procedimento di sviluppo di un prodotto, e cioè: la conoscenza di una domanda potenziale, la ricerca e sviluppo del prodotto finalizzata a soddisfare la domanda potenziale di mercato, l'ingegnerizzazione del prodotto delineato dalla ricerca, l'allestimento e l'avvio della produzione e l'avvio della commercializzazione, corrispondono certe entità di spesa.

In genere l'ingegnerizzazione e l'avvio della produzione assorbono anche più della metà della spesa globale delle fasi operative prima citate, specialmente quando si parla di produzione manifatturiera di grande serie, e oggi la produzione di "pacchetti software" è ad essa assimilabile per molti versi.

Specialmente oggi, in una situazione in cui la produzione industriale classica ristagna, specie nei settori di prodotti ad alto contenuto tecnologico, e in presenza di una continua riduzione dei prezzi dei componenti base in funzione dell'innovazione tecnologica, la ricerca e lo sviluppo, finalizzate alla realizzazione di un prodotto finale tale da poter reggere il mercato in termini di prezzo e di prestazioni, richiede un'assoluta attenzione e la capacità di operare ai livelli più sofisticati.

L'open source, o meglio, le conoscenze acquisite da chi si adopera nella ricerca e nel miglioramento continuo di qualcosa adottandone i principi libertari, è un enorme patrimonio tecnologico, oggi finalmente fruibile a costi così bassi, pressoché nulli, che chiunque può essere al tempo stesso, fruitore delle idee scientifiche e "scienziato".

L'accostamento di un appassionato di tecnologia ad un ricercatore in camice bianco può fare rizzare i capelli a qualcuno, certo.

Prima ancora di leggere Stalmann e l'ampia bibliografia sul tema "software libero", da semplice appassionato di astronomia mi accorgevo che sovente anche gli astrofili davano il loro contributo, in rapporto ai mezzi sicuramente inferiori di cui dispongono, alla comunità internazionale degli astronomi di professione.

La conoscenza è patrimonio comune di tutta l'umanità e in quanto tale non dovrebbe essere "rivenduta".

La condivisione di programmi per calcolatore a sorgente aperto (open source) permette quindi ad una azienda qualsiasi, non solo informatica, se si estende il concetto stesso di "software" inteso come "conoscenza", di scambiare continuamente esperienze tra i tentativi di soluzioni dei problemi interni e le informazioni che arrivano dall'esterno.

È essenziale per una buona riuscita del processo che nell'ambito aziendale vi siano dei "gate keeper", cioè degli organismi che rappresentano le "antenne tecnologiche" mediante le quali catturare le informazioni giuste nei tempi giusti, in una condizione odierna di sovraccarico della quantità di informazioni disponibili (veritiere o meno).

L'attività di queste unità aziendali, o di queste persone, ha un'importanza primaria nel generare e mantenere il necessario afflusso di informazioni per lo sviluppo delle idee.

Il vantaggio dell'open source è quello di prescindere dalla dimensione aziendale e di riuscire nel contempo a mantenere il passo con la concorrenza puntando più che sull'innovazione tecnologica, sulla capacità di mantenere una fetta significativa del mercato grazie alla propria capacità di produrre prodotti e componenti già assestati, a costo inferiore rispetto ai concorrenti.

Anche una realtà medio-piccola del settore informatico, attingendo all'open source, focalizzandosi su una buona organizzazione produttiva, processi snelli, e lucrando particolari condizioni di favore in termini di costo delle risorse o della mano d'opera, ad esempio, potrebbe competere sui mercati internazionali alla stregua di queste nostre piccole e medie imprese che vendono prodotti italiani nel mondo.

Nel caso specifico, la "mano d'opera" diviene non più mera esecutrice, ma patrimonio aziendale. È quindi la risorsa umana e non il software prodotto, ad essere la vera ricchezza dell'azienda, che può in questo modo permettersi il "lusso" di elargire a terzi, e sembra un controsenso, addirittura senza immediati ritorni economici, il proprio codice sorgente.

leggi il libro


resisto dunque sono

pubblicato 27 mar 2016, 02:11 da Calogero Bonasia   [ aggiornato in data 27 mar 2016, 02:11 ]

Definirsi professionista informatico non è semplice: solitamente rientra in questo insieme sia il semplice appassionato di grafica computerizzata oppure il web master dilettante che colui che progetta un sistema informativo per la gestione di un impianto nucleare o il sistema di prenotazione di una compagnia aerea.

Il motivo è dovuto sia alla passione per la tecnologia che di solito accomuna questi soggetti e le barriere d’accesso molto basse: chiunque, in sostanza, può definirsi professionista dell'informatica e proporsi sul mercato.

Un concetto nevralgico della questione è dovuto al risultato della disoccupazione di massa, che provoca la progressiva alienazione dal resto della società dei giovani che vogliono ancora un lavoro, nonostante le difficoltà per ottenerlo. Giovani che sperano ancora di poter fare una carriera soddisfacente.

Mi è capitato di visitare il sito di Claudio Erba e leggere un interessante documento dal titolo "Mucche da mungere e gatti selvatici" nel quale si affronta il tema di come proporsi sul mercato informatico mediante semplici regole di marketing.

In termini più generali, esiste il pericolo che nel decennio futuro la società non solo sarà segnata da una crescente divisione tra “noi” e “loro” (intendendo, grosso modo, con questi due termini i dirigenti e la manodopera), ma vedrà aumentare le fratture all’interno dei gruppi più importanti, perché i giovani e coloro che sono relativamente privi di protezione sociale si troveranno in contrasto con i lavoratori che hanno maggiore esperienza e che sono maggiormente tutelati.

Il mercato dei professionisti dell’informatica è molto agguerrito, oltre che molto dinamico, per via della congiuntura economica che ha ristretto la frequenza dell’alternanza tra i periodi positivi e periodi negativi, costringendo gli operatori economici a contrarre o espandere di conseguenza la domanda di personale specializzato. Il terreno fertile in cui si sono sviluppati i cosiddetti contratti flessibili.

In uno scenario di questo tipo le certezze del dipendente che venti anni fa poteva contare sul posto fisso e di conseguenza sulla liquidazione e sulla pensione, oggi sono scemate o scomparse del tutto, perché si lavora per pagare la pensione a chi già gode di benefici acquisiti che è impossibile togliere. In Italia, inoltre, ci si trova a dover competere con il ragazzino mantenuto agli studi dai genitori, che quindi non ha i costi di gestione cui va incontro chi invece apre tutti i giorni la porta del proprio studio o si mette in auto per individuare nuovi clienti.

È difficile distinguere il professionista vero da quello improvvisato e i clienti sono poco preparati dal punto di vista informatico per poter discriminare tariffe e competenze. Appunto, una situazione di questo tipo non si rileva in nessun’altra libera professione. Per esempio gli avvocati, i notai o i medici, agiscono nell’ambito di confini prestabiliti. Non si vede un informatico che si improvvisa chirurgo o che convalida un atto di acquisto di una casa, sebbene si trovano più facilmente medici dediti all’informatica (con risultati a volte sorprendenti) e notai e avvocati che provvedono alla redazione di documenti di analisi del rischio informatico.

Si è ormai anche diffusa l’idea che il software e le tecnologie sono “commodity”: significa che si compera, si monta e si usa, senza necessariamente sapere ulteriori dettagli sul suo funzionamento. Non servono professionisti, basta gente che sappia “montare” le cose o “aprire le scatole” di cartone e dare sempre conferma alle domande poste dalla procedura di installazione del programma.

Perché mai si dovrebbe pagare un professionista per compiere questi semplici gesti? È sufficiente un tecnico, come quello che monta l’antenna della televisione satellitare o viene a riparare la lavatrice guasta. Il software e le tecnologie non sono commodity. Non basta la gente con gli MBA che non ne sa nulla di tecnologia per utilizzarle. Servono professionisti esperti dell’ICT.

Nel libro si offrono spunti interessanti. Ad esempio, per i venditori che conoscono il livello di qualità dei loro prodotti (e servizi) ma che non si preoccupano del livello di competenza dei loro acquirenti, si può arrivare a due conseguenze: o non si crea un mercato, oppure vengono venduti solo prodotti di qualità scadente.

Infatti, il modello di mercato dei bidoni teorizzato da Akerloff dimostra che i consumatori, non potendo distinguere beni di alta qualità da beni di qualità inferiore o scadente, sono disposti a pagare un prezzo medio che soddisfa solo i produttori di beni di scarsa qualità. Anche senza arrivare a questi estremi è indubbio che un’incompleta informazione porti ad una riduzione del livello qualitativo in un determinato mercato di riferimento.

I consumatori non sono in grado di riconoscere e valutare correttamente i beni, perciò i produttori non sono incentivati a realizzare alta qualità. La soluzione a questa situazione è la pari informazione tra le parti.

L’Italia si distingue per i cosiddetti distretti produttivi (tessile, meccanico, anche elettronico o manifatturiero in generale), caratterizzati da piccole imprese, spesso a conduzione familiare, che però hanno sostenuto l’economia nazionale fino ad oggi e che in moltissimi casi riescono persino ad eccellere sui mercati internazionali, tendenzialmente caratterizzati dalla presenza di uno o pochi monopolisti che in nome della cosiddetta globalizzazione pretendono di uniformare prodotti e consumatori di ogni continente.

Anche nel campo informatico esistono aziende che in alcuni casi detengono, più o meno realisticamente rispetto al valore intrinseco del loro prodotto (intendo per qualità tecnologica) il monopolio del mercato di riferimento.

Grazie ai programmi a codice sorgente aperto, un informatico professionista o una piccola software house italiana, può potenzialmente concorrere con una grande azienda o persino con il monopolista del suo mercato di riferimento. Grazie alla naturale predisposizione alla collaborazione di gruppo ad un progetto comune, persone e realtà aziendali anche distanti tra di loro, persino in continenti diversi, possono costituire una sorta di “distretto virtuale” nel non luogo rappresentato da Internet.

Mediante la circolazione delle informazioni e grazie alla collaborazione reciproca di una squadra di esperti, si forma uno strato di base sul quale poggiare un’eventuale strategia di business per aggredire quote di mercato. Solitamente, inoltre, la peculiarità geografica di alcuni degli attori interessati al particolare processo economico, impedisce che si formi un’elevata concorrenza: ciascuno riuscirà, in virtù della propria dimensione, ad agire all’interno di un’area geografica circoscritta.




outsourcing america

pubblicato 27 mar 2016, 02:09 da Calogero Bonasia   [ aggiornato in data 27 mar 2016, 02:09 ]

Luminari della scienza dell’economia professano come liberale la delocalizzazione (outsourcing) dei lavori all’estero, secondo quanto hanno appreso durante i loro studi (Adam Smith): mandare la produzione laddove la mano d’opera costa meno è un vantaggi. Si sotiene che alla fine le merci così prodotte costeranno di meno per i consumatori (che rimangono in sourcing, cioè qui).

I due fratelli Hira hanno il coraggio di ribattere, ed esporre i perversi effetti sociali del “libero mercato globale”. Accusando i politici e gli economisti di negare questi effetti, fino ad accecarsi di fronte alle loro conseguenze, per dottrinarismo.

Il fatto che venga paventato il rischio di trasferire all’estero centina di posti di lavoro oggi offerti agli italiani non deve incutere timore. Già oggi molti call center sono delocalizzati in India o in Irlanda.

Stanno per volare fuori dai confini nazionali anche professioni che qualcuno oggi ritiene intoccabili: come quella di notaio o di avvocato o di architetto (quella di informatico, oramai lo sappiamo, è già in viaggio da tempo...). Mestieri che pagano (dovrebbero pagare, diciamo più precisamente) il grosso delle imposte, quelle che finanziano i necessari costi di una grande civiltà cosiddetta occidentale: istruzione, sanità, infrastrutture, ricerca.

Purtroppo, se si permette alle grandi imprese (come lo si è permesso alla FIAT in passato) di ricattare i lavoratori e di sbarazzarsene, per pagare di meno, si rischia grosso per il futuro di questa nazione. I titolari di queste aziende, concentrati sui profitti a breve termine (da cui dipendono le loro gratifiche) e sui risultati trimestrali (da cui dipendono i rialzi azionari momentanei) stanno liquidando il futuro a lungo termine.

Già hanno buttato nel fango la dignità della persona umana, costringendo i loro dipendenti a svolgere attività che nemmeno Ford nella sua teorizzazione della catena di montaggio, avrebbe avuto il coraggio di suggerire. Deprezzano il vero valore dell’azienda: il “capitale umano”, e di conseguenza anche i consumatori che comprano i loro prodotti.

Difatti questi dipendenti precari che domani rischiano di perdere il posto di lavoro, una volta rimasti disoccupati, scompariranno anche come consumatori. Il loro potere d’acquisto, già molto ridotto, quando troveranno, se lo troveranno, un nuovo lavoro (meno pagato), impedirà anche di accumulare risorse per il periodo della vecchiaia, incrinando e probabilmente spaccando definitivamente il nostro sistema previdenziale.

La dottrina di Adam Smith, ripetuta a pappagallo da economisti di bassa statura (non solo culturale, ma anche di fatto), comporta che gli italiani che perderanno il lavoro saranno costretti ad emigrare altrove, come avviene già per molti dei nostri connazionali che vanno ad esprimere altrove il loro potenziale nel settore della ricerca scientifica o nel campo dell’informatica.Basterebbe vedere che cosa è successo negli Stati Uniti d’America: molti operai industriali, che furono espulsi un decennio fa dal loro abituale settore, perché la produzione industriale si spostò all’estero, hanno seguito corsi di ri-qualificazione per trovare impiego nell’informatica.

Ora si trovano nella triste situazione di vedere sparire all’estero anche la loro seconda carriera. Un disastro sociale che sfocerà in un arretramento della civiltà italiana e certamente già oggi incrina seriamente la sicurezza nazionale.

La delocalizzazione, che provoca disoccupazione ai livelli alti delle professionalità sta già provocando, di conseguenza, un crollo delle iscrizioni alle università e non stimola nessuno ad aderire alle associazioni di categoria che si battono per un riconoscimento di professioni come quella di operatore di call center o di informatico.

Delocalizzare per mettere piede nei mercati asiatici emergenti, come strombazza certa stampa specializzata, è una grande illusione. La realtà è che queste aziende italiane sono incapaci di competere con quelle imprese estere, perché quelle sono molto più veloci ad assimilare tecnologia e conoscenza delle imprese occidentali. 

Di fatto, le statistiche mostrano che le imprese di informatica e tecnologia informatica indiane regolarmente superano in competitività le loro analoghe americane, anche sul mercato americano.



liberarsi dalle scatole nere

pubblicato 27 mar 2016, 02:07 da Calogero Bonasia   [ aggiornato in data 17 giu 2016, 06:12 ]

In un paese in cui la ricerca scientifica trova possibilità di finanziamento e di incentivi da parte dello Stato le necessità di creare tali capacità all'interno dell'azienda sono ovviamente minori, in quanto gli operatori economici, concorrendo attraverso le spese dello Stato al conseguimento di un tale risultato, possono usufruire di ritorno, per così dire, dei benefici di una tale attività collettiva. 

In quei paesi in cui lo Stato finanzia, per propria necessità comunitaria, gli studi e gli sviluppi in determinate tecnologie, non solo le aziende interessate possono usufruire direttamente di tali benefici, in modo diretto come finanziamento alla ricerca ed aiuto alla produzione di prodotti innovatori, ma anche le altre aziende non direttamente coinvolte dal programma finanziato dallo stato possono godere del "fallout tecnologico", della ricaduta cioè della conoscenza che comunque, da tali operazioni, viene distribuita sul tessuto sociale del paese.

La struttura propria di ricerca e sviluppo di un'azienda dipende anche dal grado di sviluppo tecnologico in senso generale del paese stesso o della zona geografica del paese in cui l'azienda deve operare: in un paese ad alto livello tecnologico la presenza di istituti privati e pubblici, di università e di enti di ricerca può indubbiamente facilitare l'acquisizione di know-how da parte dell'azienda e non richiedere quindi al suo interno la presenza di un gruppo di ricercatori troppo grande. 

Si può persino giungere all'apice del processo, e cioè che lo Stato divenga "esportatore" di conoscenza verso altri stati che necessitando di risorse umane altamente specializzate, possono comprare da università o enti di ricerca per produrre poi tecnologia. 

Ad esempio l'India acquista conoscenza dagli USA, sotto forma di programmi universitari, scienziati e ricercatori, che vanno a trasmettere agli indiani quelle ""materie prime" che altrimenti non avrebbero o che costerebbero troppo (tempo) per essere ottenute.

Un po' come comprare il petrolio o le automobili per muoversi... solo che qui le autostrade sono "quelle dell'informazione" e arrivano dappertutto a costi molto bassi... Capita sempre più spesso difatti di trovarsi ad utilizzare codice Open Source scritto in nazioni considerate terzo mondo dal punto di vista industriale classico. Il vantaggio è però che mantenendo la mano d'opera in un'altra nazione, alla quale si vende solo il know-how, i costi di gestione rimangono in quella nazione.

È insomma un modo per accrescere le quote di mercato, invadendo, pacificamente in un certo senso, altri paesi, giacché la regola basilare dell'economia mondiale attuale, è l'invasione dei mercati per sopravvivere, essendo comunque destinati a morire non appena tale mercato si verrà a saturare.

Inventando sempre nuovi mercati si procrastina di volta in volta questa "morte annunciata". Pur essendo, quindi, la funzione di ricerca e sviluppo abbastanza simile in qualsiasi tipo di azienda, le sue strutture, il suo costo in termini di impegno economico e di struttura organizzativa variano molto da azienda ad azienda, da paese a paese, da settore a settore e nella singola azienda nell'ambito del settore. I problemi di carattere interno all'azienda dipendono in parte, come abbiamo visto, dalla situazione esterna in cui tale azienda si trova. 

Ma vi sono anche dei motivi tipici dell'azienda che ne condizionano l'atteggiamento verso i problemi di ricerca e sviluppo. Se ne potrebbero citare molti, ma secondo me i più importanti sono l'origine dell'azienda; l'atteggiamento del management verso i problemi dell'acquistare piuttosto che produrre e l'atteggiamento "interno".

Se il fondatore dell'azienda era un ricercatore o un tecnico di grandi capacità, l'azienda molto probabilmente risentirà della verticalizzazione, per così dire, della ricerca nella persona dell'imprenditore, e così la struttura dei laboratori sarà orientata, soprattutto se la produzione è in qualche modo una diretta conseguenza dell'innovazione tecnologica, o dell'invenzione, dell'imprenditore.

Al contrario, un'azienda in cui non esista una simile figura, i laboratori di ricerca rappresentano l'evoluzione di più discipline e di più ricercatori: da qui la necessità di un articolato organigramma e di sistemi di informazione interna che dovranno supplire alla mancanza di una spinta basata sull'io dell'imprenditore-inventore. Il management si sostituisce in questo caso all'iniziativa puramente personale.

L'atteggiamento del management delle moderne aziende verso i problemi dell'acquistare piuttosto che produrre (make or buy) deriva dal fatto che alcune aziende ritengono vantaggioso e più facile reperire il know-how per ottenere certi risultati mediante ampie politiche di acquisizione di attività già avviate o di centri di ricerca. 

Infine, l'atteggiamento interno delle aziende alimentano nei confronti della ricerca e sviluppo caratterizza anche l'entità degli investimenti che l'azienda è portata a realizzare per la ricerca e sviluppo.

Per concludere, l'importante, pur tenendo nel debito conto i problemi derivanti dalle differenti situazioni sopra indicate, è che la ricerca e sviluppo all'interno di un'azienda siano correttamente impostati in funzione dei risultati che l'azienda vuole ottenere e della strategia che essa si è scelta; altrettanto importante è che essa, tenuto conto di tali obiettivi, riesca ad ottenere un alto grado di efficienza, abbia cioè la capacità di usare nel modo più proficuo le proprie e delle altrui capacità.



social business e gestione documentale

pubblicato 27 mar 2016, 02:05 da Calogero Bonasia   [ aggiornato in data 27 mar 2016, 02:05 ]

"social business": un nuovo modo di lavorare che supera i vecchi modelli organizzativi aziendali, rigidi e schematici (...)

La gestione elettronica dei documenti sta cambiando in modo radicale. La spinta proviene innanzitutto dalla crescente necessità di collaborazione con altre persone all’interno dell’azienda mediante nuove forme di interazione diretta che superino le abusate comunicazioni via posta elettronica.

Le tecnologie social, permette di connettere le persone più efficacemente, ottenere il loro coinvolgimento, mettere meglio a frutto l’intelligenza e l’energia collettive, favorire le nuove idee e i cambiamenti organizzativi.

Vengono quindi creati gruppi di lavoro centrati sulla collaborazione e la condivisione fra persone eterogenee di settori diversi, interni e anche esterni all'azienda, favorendo lo scambio di nuove idee: i partecipanti operano all'interno di un ambiente comune, condividendo contenuti e messaggi in modo veloce ed efficiente, svincolato dall'uso delle e-mail e basato invece su insieme di notifiche semplici e meno invasive.

Inoltre una grande quantità di conoscenza preziosa per l’azienda resta "imprigionata", sequestrata nelle caselle inbox dei client di posta elettronica, ed è difficoltoso ricercarla e recuperarla quando occorre. 

Problemi come questi hanno spinto diverse organizzazioni a bandire l’utilizzo delle e-mail nelle comunicazioni al proprio interno.

Si stima che dal 25 al 30% del tempo totale dedicato alla gestione delle e-mail potrebbe essere reimpiegato, se il canale predefinito per le comunicazioni fosse convertito sulle piattaforme sociali.

E l'e-mail rappresenta solo un aspetto. Infatti le organizzazioni potrebbero innalzare ulteriormente l’efficienza di una buona parte della giornata che i knowledge worker spendono ricercando e raccogliendo informazioni.

In aggiunta ai criteri di archiviazione dei documenti rigidi e prestabiliti dall'azienda in funzione dei processi, con l'uso dei tag gli utenti possono usare una classificazione ulteriore, personale e informale, che fornisce maggiore flessibilità e semplicità al loro lavoro.

Rilevante è anche la portata delle notifiche, che non sono effettuate tramite e-mail ma mediante un sistema di messaggistica interna che opera come strumento di comunicazione istantaneo fra la piattaforma e gli utenti e fra utente e utente, alleggerendo così la casella di posta elettronica.

Ciascun utente visualizza sulla propria schermata di lavoro sul PC o sul proprio dispositivo mobile le notifiche di propria competenza: lo informano sull'esito dell’elaborazione di un lotto di documenti, ad esempio di una spedizione massiva, oppure gli segnalano la necessità di un suo intervento per l’approvazione ad esempio del pagamento di una fattura, l’emissione di un ordine o l’invito a partecipare ad un gruppo di lavoro.

L’uso delle interfacce native dei dispositivi non obbliga gli utenti ad imparare le funzioni di un client, come finora richiesto dalla gestione documentale.

La prevista diffusione dei processi collaborativi e l’allargamento della gestione documentale a tutti gli utenti aziendali richiedono il supporto di un sistema documentale che non sia un semplice pacchetto applicativo ma abbia tutte le caratteristiche di sicurezza, affidabilità e scalabilità tipiche di un sistema enterprise, ad esempio di un ERP aziendale.

Il problema è come convincere i vari addetti di un’organizzazione ad incamminarsi su questo percorso di profonda trasformazione culturale, di cambiamento dell'approccio mentale per affrontare lo svolgimento dei vari compiti lavorativi.

La strategia aziendale deve incoraggiare la nuova modalità di collaborazione: infatti, più i partecipanti connessi al social network aziendale hanno un’esperienza positiva di questo modo di lavorare, più lo integreranno di buon grado nei propri schemi operativi. 

Una positiva esperienza collaborativa crea fiducia, che è la chiave fondamentale per concretizzare un reale cambiamento culturale.



alternative all'ora di religione: un'ora di programmazione Python

pubblicato 27 mar 2016, 02:04 da Calogero Bonasia   [ aggiornato in data 27 mar 2016, 02:04 ]

Il linguaggio di programmazione Python è cresciuto notevolmente in popolarità e importanza, sia come linguaggio di programmazione generale sia come strumento avanzato per l'analisi dei dati scientifici.

Ci sono 6 le librerie fondamentali a disposizione degli analisti e sono:

NumPy: conosciuta anche come Numerical Python, è una libreria open source Python utilizzato per il calcolo scientifico che ha molte analogie con il linguaggio C. NumPy ffre velocità e maggiore produttività utilizzando gli array e le metriche. Ciò significa che NumPy è adatta soprattutto quando si analizzano i dati matematici nell'ambito della disciplina cosiddetta "dei Big Data".

SciPy: è la libreria derivata, mi si conceda il termine, da NumPy ed è ottimizzata per il calcolo scientifico. Offre funzioni specifiche per il calcolo di equazioni differenziali o funzioni speciali. Non ho fatto molto con questa libreria quindi non so dire se dipende dalle mie "scarse" conoscenze di Python oppure se effettivamente è una libreria "dispersiva" rispetto all'elegante ordine di NumPy.

La terza libreria di cui voglio parlare è Pandas anche questa offre funzioni per l'analisi dei dati strutturati. Ho notato diversi punti di somiglianza con R. Probabilmente chi sa usare R troverà molto semplice usare Pandas. Sullo stesso piano, e per questo non mi soffermerò oltre, trovo che sia anche l'altra libreria: IPython.

Matplotlib forse è la più conosciuta tra questo genere di librerie, è certamente la più potente per quanto riguarda la visualizzazione di insiemi di dati complessi. Offre una grafica accattivante, che non è un aspetto secondario nel campo della ricerca.

Infine, scikit-learn è probabilmente la più completa libreria di "machine learning" per Python ed è costruita anche questa sulla base di NumPy e SciPy. Uno dei vantaggi di Scikit-learn è l'approccio tutto in uno: contiene vari strumenti per svolgere compiti di apprendimento della macchina, quali l'apprendimento supervisionato e non supervisionato.



1-10 of 93