19 agosto 2011

Cognitive Computing: oltre l'architettura di von Neumann?

schema Un sistema in grado di raccogliere i frutti delle neuroscienze, del supercalcolo e delle nano tecnologie: è il progetto SyNAPSE, ovvero Cognitive Computing allo stato puro.
La prima rivelazione risale al 2008 quando l'Ibm comunicò di aver avviato la creazione sistema di calcolo in grado riprodurre le abilità cognitive, le sensazioni e le percezioni tipiche della mente umana. L'iniziativa, sviluppata con la collaborazione di alcune importanti università, si proponeva anche di riuscire a rivaleggiare con la nostra mente non solo in termini di prestazioni, ma anche in relazione alle dimensioni e ai consumi.
Con una dote di 4,9 milioni di dollari assegnati dall'agenzia governativa Defense Advanced Research Projects Agency (DARPA) è stata assemblata una squadra di altissimo livello guidata da Dharmendra S. Modha (Ibm), proveniente da: Stanford University, University of Wisconsin-Madison, Cornell University, Columbia University Medical Center, University of California (Merced). Dharmendra S. Modha.
Qualche passo avanti venne poi presentato alla conferenza internazionale Super Computing (Portland, 14-20 novembre 2009), con l'annuncio di una prima simulazione corticale del cervello.
Ieri la rivelazione: la Cognitive Computing ha il suo primo chip. Con una nuova dotazione finanziaria di 21 milioni di dollari (DARPA) è iniziata la fase due del progetto SyNAPSE: Systems of Neuromorphic Adaptive Plastic Scalable Electronics. La prima fase riguardava la simulazione della corteccia cerebrale di un gatto con un supercomputer IBM da 144 terabyte di memoria. Nel comunicato ufficiale di ieri (IBM Unveils Cognitive Computing Chips) si parla con decisione di una nuova generazione di chip per computer progettati per emulare le abilità del cervello umano e nettamente diversi da quelli tradizionali. In particolare il calcolatore cognitivo non si basa sulla classica architettura di von Neumann, ovvero un processore e una memoria nei quali il codice di elaborazione e i dati sono separati.
“Questa è la più importante iniziativa di ricerca - spiega Dharmendra Modha, nel comunicato di ieri - messa in piedi per superare il paradigma di von Neumann paradigm che ha guidato la realizzazione dei calcolatori per oltre mezzo secolo. Le future applicazioni del calcolo richiederanno sempre maggiori funzionalità che non sono assolte in modo efficiente dall’architettura tradizionale. Questi chip permetteranno ulteriori passi in avanti nell'evoluzione dei computer da macchine calcolatrici a sistemi che apprendono, segnando l’inizio di una nuova generazione di computer e di applicazioni utili, per la loro capacità di gestire la complessità, al mondo scientifico e delle imprese, ma anche ai decisori pubblici.
Per la fase 2 del progetto SyNAPSE l'IBM sarà affiancata da ricercatori di quattro atenei nordamericani: Columbia University, Cornell University, University of California (Merced), University of Wisconsin (Madison).
Darmendra S. Modha cura un interessante blog (Cognitive Computing blog) nel quale ricostruisce la storia di questa branca della computer science: Evolution of cognitive computing.


Andrea Mameli www.linguaggiomacchina.it 19 agosto 2011


- Network architecture of the long-distance pathways in the macaque brain (Dharmendra S. Modhaa, Raghavendra Singhb) PNAS, June 11, 2010.
- IBM Seeks to Build the Computer of the Future Based on Insights from the Brain (comunicato ufficiale Ibm del 20 novembre 2008).
- IBM Awarded DARPA funding via SyNAPSE Program (Dharmendra S Modha's Cognitive Computing Blog, November 19, 2008)
- Tests on a cell assembly theory of the action of the brain, using a large digital computer (September 1956).

18 agosto 2011

La squadra dell'università di Trieste partecipa alla competizione internazionale IGEM: International Genetically Engineered Machine

IGEM L'edizione 2011 della competizione internazionale dedicata alla biologia sintetica IGEM: International Genetically Engineered Machine vedrà la partecipazione di un gruppo di studenti dell'università di Trieste, affiliati al laboratorio di ricerca ICGB: International Centre for Genetic Engineering and Biotechnology e autori della ricerca SYNBIOME.
Alla gara, organizzata dal MIT (Massachusetts Institute of Technology), prendono parte:
Giulio Bernadinelli (Bachelor of Science in Medical and Pharmaceutical Biotechnology UniSr, Master of Science in Functional Genomics UniTs),
ricerca Luca Braga (Bachelor of Science in Medical Biotechnology UniMi, Master of Science in Functional Genomics UniTs), Francesca Cesaratto (Bachelor of Science in Biotechnology UniTs, Master of Science in Medicla Biotechology UniTs), Pierluigi D'antrassi (Bachelor in Electronic Engineering, Master of Clinical Engineering UniTs), Niels Ntamati (Bachelor of Science in Biotechnology UniTs, Master of Science in Neuorscience UniTs), Veronica Parisi (Bachelor degree in Evolutionary Biology UniBo, Master of Science in Functional Genomics UniTs).
Abbiamo intervistato il portavoce del gruppo, Luca Braga.
Cosa significa partecipare a questa competizione scientifica?
«La gara dura 12 settimane, a partire dal primo luglio, e consiste nel progettare e sviluppare un progetto di ricerca originale. L’edizione 2011 vede confrontarsi 166 università provenienti da tutto il mondo e per la prima volta ci sarà una prima selezione "Regionale": i vari partecipanti sono suddivisi in 3 regioni (Europa, Asia America). I team selezionati parteciperanno alla selezione finale.
La prima selezione per i team europei si terrà a Amsterdam il 1 e 2 ottobre e la seconda selezione si terrà a Boston nelle sedi del MIT dal 5 al 7 novembre. Per quanto riguarda l'Italia, le uniche due università partecipanti sono Pavia e Trieste, il team Triestino è esordiente, invece quello Pavese partecipa attivamente da alcuni anni».
Con che spirito partecipate?
«La volontà di partecipare a IGEM 2011 è nata da noi studenti e non ci è stata mai richiesta o imposta dagli organi accademici. Ci teniamo altrettanto a sottolineare che il sostegno fornitoci dall'Univesità degli Studi di Trieste, in particolare dal presidente del Corso di Laurea in Genomica Funzionale (Prof. Guidalberto Manfioletti) e dal presidente del Dipartimento di Scienze della Vita (Renato Gennaro) entrambi afferenti alla facoltà di Scienze Matematiche Fisiche e Naturali è stato di fondamentale importanza per poter rendere reale questo nostro desiderio di partecipazione alla competione. IGEM è una gara che non prevede compensi di tipo economico, il premio è potersi misurare con realtà provenienti da tutto il mondo e tentare fra queste di essere la migliore. Un importante risultato di questa competizione è quello standardizzare le sequenze di DNA che sono coinvolte nel funzionamento del sistema progettato. Semplificando possiamo immaginare che ogni sequenza di DNA con una funzione nota sia un mattoncino Lego: se è conforme a tutti gli altri mattoncini si riuscirà a riutilizzare per fare nuove costruzioni, in caso contrario sarà inutilizzabile e finalizzato a un unico progetto. Ognuno di questi mattoncini di DNA andrà a implementare un Database gestito dal MIT in cui tutte queste informazioni sono raccolte e diventano di libero accesso per tutta la comunità scientifica oltre che per i partecipanti a IGEM.».
Che tipo di studi conducete?
«Il nostro progetto ha come nome "SynBiome" ed ha come obiettivo quello di generare un innovativo sistema di comunicazione Inter-regno, fra eucarioti e procarioti, completamente sintetico. Abbiamo disegnato un sistema in cui eucarioti e procarioti riescono a comunicare con lo stesso linguaggio, nel nostro caso attraverso molecole di segnale procariotico come AHL Acil-Homoserine-Lactone)per renderli abili nel cooperare al fine di generare un ecosistema sintetico, vantaggioso per entrambi. Oltre a un sistema totalmente inesplorato quello che vogliamo creare sarebbe una piattaforma spendibile in diversi settori dalla ricerca di base alla ricerca applicata in campo farmaceutico: generazione di bioreattori misti per la produzione di macromolecole biologiche di interesse terapeutico».
Cos'è la biologia sintetica?
«E' un'area di ricerca in campo biologico che tenta di coniugare la conoscenza scientifica di tipo biologico con quella ingegneristica. Un parallelo chiaro potrebbe essere la differenza fra l'utilizzatore di un software e il suo programmatore, un approccio biologico prevede l'utilizzo di una funzionalità l'approccio sintetico prevede la generazione di nuove funzionalità. Il biologo sintetico del futuro dovrebbe ragionare nell'ottica "What you mean is what you get"uscendo dall'ottica classica del "what you see is what you get".
Cosa è l'icgeb?
«L'ICGEB è il centro che ci sta garantendo gli spazi le attrezzature e il sostegno tecnico e scientifico per sviluppare il nostro sistema, il nostro team è suddiviso su due differenti gruppi di ricerca residenti in ICGEB, uno coordinato dal Prof. Mauro Giacca e l’altro dal Dott. Vittorio Venturi. Entrambi sia grazie alla disponibilità in termini di strutture che di supporto scientifico sono stati fondamentali per rendere possibile la nascita e lo sviluppo di questo progetto».

Andrea Mameli www.linguaggiomacchina.it 18 agosto 2011



SYNBIOME

17 agosto 2011

Trame e tessuti, tema della settimana internazionale della grafica (Cagliari, 27 settembre 1 ottobre 2011)

TramiteSud TramiteSud L'Associazione italiana progettazione per la comunicazione visiva (Aiap) presenta Design Per dal 27 settembre al 2 ottobre 2011 a Cagliari. Il tema di Design PER 201 è Trame e tessuti. Perché "Trame e tessuti"? Perché una delle chiavi fondamentali per la comprensione della mondo contemporaneo è la dimensione di rete. Gli elementi della comunicazione tradizionale sono oggi in relazione con molti altri oggetti, manufatti, discorsi, link, approcci e progetti, visibili e invisibili, accessibili più o meno facilmente e in modo dinamico e complesso. Oggi è la civiltà tessile quella che più di ogni altra appare adatta a fare da metafora del contemporaneo. Una tecnologia mentale che riesce a mettere in connessione realtà fisica e mondo delle idee, costruendo una civiltà nuova fatta di persone, mercati, oggetti, economie, tutte in relazione dinamica e a volte conflittuale tra loro.
Presentare questa riflessione in Sardegna, una delle civiltà tessili più antiche e interessanti del Mediterraneo, non è casuale. Al disegno di trame portato dal tessuto urbano, dalle strade e dai sentieri che, allontanandosi dalle città, intrecciano luoghi e paesi in cui battono i telai è immediato aggiungere l’evanescente disegno lasciato dalle navi sul mare che circonda la Sardegna.
All'iniziativa è connesso il progetto TramiteSud. La partecipazione è libera, unico vincolo il formato orizzontale 50x70 cm. Sul sito www.tramitesud.com è possibile postare il lavoro salvato per la stampa in formato PDF/X-3:2002 RGB 300 dpi e per l’inserimento nel sito in formato JPG RGB 72 dpi base 610 pixel. Tutti i lavori partecipanti al progetto tramiteSud verranno esposti in una mostra allestita a Cagliari nel contesto di Design Per, pubblicati sul sito di tramiteSud e dell’AIAP e postati su Facebook, Flickr e Twitter. La data di scadenza per l'invio delle opere è il 20 settembre 2011.

[logo realizzato con intervento su opera di Carla Mura, Cagliari, 2004]

Concorso fotografico "La fisica va in vacanza". In palio: il Manuale di sopravvivenza energetica.

carnevale della fisica Un concorso per le foto estive legate a curiosità scientifiche. manuale di sopravvivenza energetica
In palio, per la foto più votata, il libro di Andrea Mameli: ”MANUALE DI SOPRAVVIVENZA ENERGETICA” edito da Scienza Express (Torino, 2011). Per partecipare basta inviare il file a: claudio.pasqua@gmail.com
La giuria sarà composta dai visitatori del blog di Claudio Pasqua Piemonte al microscopio (che ospita il Carnevale della Fisica).
Per partecipare al Carnevale bisogna pubblicare sul proprio blog, una settimana prima del lancio mensile, un ipertesto divulgativo: approfondimenti, esperienze, storie, poesie, espressioni artistiche. La scadenza per questa puntata del Carnevale, e per il concorso fotografico, è il 27 agosto 2011.

16 agosto 2011

Robert J. Sawyer, la legge di Zipf e il Dna. Della serie imparare dalla fantascienza.

risveglio Per ideare scenari complessi, con aperture credibili verso il tecnologicamente possibile e per giunta in una storia che si sviluppa su diversi piani, bisogna essere ottimi scrittori. Farlo con uno stile avvincente e con spunti scientifici corretti e pertinenti riesce a pochissimi. Ma se poi aggiungiamo una frizzante ironia, nei confronti dei pregiudizi, e anche una rara (ma mai pietistica) delicatezza nei confronti delle persone affette da patologie importanti, allora per me siamo di fronte a un genio. Così ho pensando mentre leggevo WWW 1: Risveglio di Robert J. Sawyer. Per fortuna, due mesi fa, il mio consigliere per la fantascienza, Daniele Barbieri, mi ha invitato caldamente alla lettura di questo libro facendomi scoprire un autore straordinario. Basta leggere la sua biografia e scorrere i suoi titoli. wake Non amo i confronti, ma inizio a pensare di essere di fronte al nuovo Asimov.
Ma ritorniamo al libro (che sto finendo proprio in queste ore) il cui titolo in inglese è WWW: Wake. Abbiamo, per limitarci a uno dei piani su cui si sviluppa la storia, una ragazza nonvedente, due genitori molto svegli, uno scienziato giapponese e una catena di eventi a mio parere travolgenti. E abbiamo una serie di visioni, sostenute dalla tecnologia, un vero e proprio simulacro del World Wide Web che annuncia il risveglio di un essere cosciente. Uno dei più riusciti innesti scientifici sulla trama fantastica (che orrore queste classificazioni!) fa affiorare un concetto ("Zipf Plot") di uno scienziato di Harvard, George Kingsley Zipf, noto (ma io non lo conoscevo affatto!) per aver scoperto che l'ordine di frequenza delle parole in una lingua (in qualsiasi lingua!) non è casuale ma segue una precisa legge. Per esempio nella lingua inglese la parola più frequente, "the", compare il doppio della seconda ("of"), e la frequenza con la quale compare la terza, "and", è un terzo della seconda, ecc. Così la descrive un personaggio del libro di Sawyer: "George Zipf notò che in ogni lingua umana la frequenza con cui viene utilizzata una parola è inversamente proporzionale alla posizione che occupa nella tabella di frequenza di tutte le parole di quella lingua". Robert J. Sawyer
George Kingsley Zipf descrisse la legge che prende il suo nome nel 1949 in Human Behaviour and the Principle of Least-Effort (Comportamento umano e il principio del minimo sforzo).
Ovviamente la mia curiosità non si placa con Wikipedia. Ed ecco spuntare uno studio [Linguistic features of noncoding DNA sequences. Phys Rev Lett. 1994 Dec 5;73(23):3169-72.] basato sulla legge di Zipf applicata a sequenze note di DNA, conteggiando tutte le ripetizioni di parole identiche. Il risultato è chiaro: le zone non codificanti si adattano meglio alla legge di Zipf rispetto a quelle codificanti, come spiega bene l'articolo di Leonardo Gnesi Linguistica e DNA, ovvero: Dove sequenze "silenti" incontrano il linguaggio umano.
Ma la legge di Zipf significa anche altro: in qualunque conversazione spontanea o testo scritto, in qualsiasi lingua, la frequenza delle parole corte è maggiore di quella delle parole lunghe.
Però oggi è il 15 agosto e ho tempo: non mi fermo qui. Vado avanti e trovo un recente paper di Steven T. Piantadosi1, Harry Tily e Edward Gibson, del MIT, che sembra invalidare la legge di Zipf: Word lengths are optimized for efficient communication. In altre parole la lunghezza di una parola rifletterebbe esclusivamente il suo contenuto di informazione. Analizzando l’uso delle parole in 11 lingue europee Steven Piantadosi e i suoi colleghi hanno determinato una stretta correlazione fra lunghezza delle parole e contenuto informativo. Se questo studio troverà conferma vorrebbe dire che il linguaggio è un vettore di informazioni molto efficiente: il compito delle parole brevi sarebbero quello di ridurre la densità informativa della conversazione.
Per ulteriori approfondimenti rimandiamo al comunicato ufficiale del MIT: Wordly wisdom. What determines the length of words? MIT researchers say they know. (interessanti anche i commenti).


Andrea Mameli www.linguaggiomacchina.it 16 agosto 2011


P.S. Reputo estremamente interessante anche questo link: Physicists' papers on natural language from a complex systems viewpoint

15 agosto 2011

Una goccia estremamente lenta. The pitch drop experiment.

Sex and the Physics Ho letto Sex and the Physics, recentissimo libro di Monica Marelli e Emiliano Ricci (Rizzoli, 194 pagine, € 16,50) dedicato alla fisica del sesso. Un saggio, a tratti divertente, sempre interessante e ben illustrato da Caterina Giorgetti. L'ho letto e mi è piaciuto. Ma ora non intendo parlarne dato che a un tratto sono, come dire, inciampato nella mia proverbiale curiosità: serendipicamente ho colto un cenno, nelle pagine dedicate alla viscosità, all'esperimento di più lunga durata (certificato dal Guinness dei primati). Allora sono andato a leggere qualcosa su questo particolarissimo esperimento, che si basa sull'osservazione della velocità (o della lentezza) delle gocce di pece. La pece per chi non la conosce (e so che moltissime persone non la conoscono) è una sostanza appicicosa (per questo era usata come colla), impermeabile (per questo è impiegata nella costruzione di tetti e nella manutenzione delle imbarcazioni), nera (per questo la si usava come colorante), che solidifica a temperatura ambiente (veniva usata per produrre i piattelli del tiro a volo), e che si scioglie lentamente tra 30 e 180 gradi centigradi e mantiene il calore a lungo (dai castelli sotto assedio si faceva cadere pece fusa).
The pitch drop experimentL'esperimento delle gocce di pece (The pitch drop experiment) fu ideato nel 1927 da Thomas Parnell, docente di fisica dell'università del Queensland (Brisbane, Australia), per osservare le lentissime gocce di questo materiale. Parnell dopo aver sciolto un pezzo di pece lo versò in un imbuto di vetro e lo lasciò sedimentare per tre anni. Nel 1930 liberò il fondo dell'imbuto lasciando cadere una goccia di in una provetta sottostante. Il 28 novembre 2000 al cadere dell'ottava goccia i ricercatori stimarono la viscosità della pece come 230 miliardi di volte maggiore rispetto a quella dell'acqua.
Questo esperimento impone capacità organizzative non comuni e richiede il coinvolgimento di persone competenti e a distanza di tempo con l'obiettivo di osservare il comportamento della pece. L'università australiana ha quindi creato una tradizione al suo interno e anno dopo anno studenti e docenti seguono l'esperimento anche con l'aiuto di una videocamera puntata sul campione di pece. Certo, questo non è l'esperimento più importante del mondo (e il beffardo I Nobel del 2005 ce lo ricorda), ma scienza evolve anche in questo modo, se non altro destando curiosità. E voglia di saperne di più. E allora per saperne di più:
- Pitch drop experiment (Wikipedia)
- Esperimento della goccia di pece (Wikipedia Italia)
- The Latest on Long-Running Experiments (Improbable research)
P.S. Il Centro Regionale di Documentazione per la Promozione della Salute della Regione Piemonte inserisce la pece (o catrame di carbon fossile) tra le sostanze cancerogene (Fonte: European Chemical Agency). Indicazioni di pericolo: H350 .

Andrea Mameli www.linguaggiomacchina.it 15 agosto 2011


PS ho ricevuto dall'ufficio di comunicazione della School of Mathematics and Physics, University of Queensland due belle foto relative all'esperimento e un valido link di approfondimento:
The Pitch Drop Experiment:
Professor Thomas Parnell
duro come la pece
Cagliari, 23 agosto 2011.

"Physics is like sex. Sure, it may give some practical results, but that's not why we do it" R. P. Feynman

14 agosto 2011

Metti una sanguisuga nel computer (Inter.Net, 1999) di Andrea Mameli

Un server grande come un'aspirina e un computer fatto con le sanguisughe. Sono queste le nuove frontiere dell'informatica per raggiungere l'obiettivo di un mondo dove la distinzione tra elettrodomestici, calcolatori ed esseri pensanti non sarà poi così evidente
di Andrea Mameli [articolo pubblicato su InterpuntoNet nel 1999]
computer sanguisughe
Cosa può accadere dunque?
Ha le dimensioni di una compressa di aspirina, ma al suo interno è contenuto un vero e proprio server web. Lo ha costruito uno studente dell'Università del Massachusetts, Hariharasubrahmanian Shrikumar ("ma tutti mi chiamano Shri") che ha accettato di farsi intervistare da noi. Il sito con il suo progetto è online dal 14 luglio e fa registrare circa 40.000 hit al giorno.
Così racconta il suo inventore: "Intendevo dimostrare la semplicità delle tecnologie necessarie a far comunicare i componenti elettronici.
Ho trovato il modo di portare il protocollo tco/ip dentro un elemento migliaia di volte più piccolo di un computer, utilizzando un componente economico e facilmente reperibile, un microprocessore PIC, prodotto da Microchip Inc, Arizona.
Sono riuscito a dimostrare che poteva essere fatto, e ora la stessa tecnica potrà essere applicata ad ogni chip. Inoltre il lavoro si è svolto nel mio tempo libero, e non potevo credere a me stesso quando l'ho fatto funzionare per davvero".
I segreti del micro PC
Ecco le caratteristiche dell'iPic: il chip contiene una CPU da 4 MHz, con memoria, interfaccia seriale e clock. I protocolli disponibili sono http, tcp/ip, e Telnet. Il PIC 12C509A è connesso ad un altrettanto piccolo chip 24LC256 EEPROM con funzioni di hard disk. In sostanza abbiamo un micro compuer completo in pochissimi centimetri nel quale, oltre html, file di testo, Gif e Jpeg, girano anche applet Java, piccoli file audio e postscript. Provate a fare un telnet con iPic o visitare le pagine sulla storia dell'Universo in esso contenute e pensate che il nostro navigatore riceve quelle pagine direttamente dal microscopico server, che Shri ha saputo creare con appena un K di memoria. Il programma è condensato in 1024 byte, di cui 256 sono necessari per l'implementazione del protocollo tcp/ip. Il sistema operativo Rtos utilizza 15 istruzioni. Attraverso un router a 115200bps è connesso alla rete internet direttamente: non vi sono host intermedi né altri trucco.
Il parere di Hariharasubrahmanian Shrikumar
Abbiamo chiesto a Shri se riteneva si potesse fare di più. "Certo, il sistema può lavorare a dimensioni molto inferiori, direi fino a 100 volte più piccolo dell'attuale. Sto lavorando per renderlo più piccolo e più veloce e nello stesso tempo per rendere la tecnologia adattabile a molte applicazioni diverse. Mi aspetto che iPic potrà essere disponibile come un chip da inserire in apparati musicali giochi, elettrodomestici, computer portatili e cellulari."
Ma il mercato è già pronto per questa miniaturizzazione?
"Penso che la direzione in cui dobbiamo muoverci è quella della connettività. Una connettività diffusa. Ogni giorno che passa le nostre vite vengono toccate sempre più dall'elettronica e un gran numero di nuovi dispositivi contiene microprocessori. Questi piccoli chip si presume possano rendere più intelligenti i congegni che li ospitano e di conseguenza farci vivere meglio. Ma questa promessa in qualche caso si è trasformata in maledizione. Penso che spesso noi umani siamo diventati schiavi di questi aggeggi intelligenti, anziché averli al nostro servizio. Prendiamo ad esempio il riscaldamento e la macchina per il caffè automatica sincronizzati con la mia sveglia, per consentirmi di trovare la temperatura preferita e il caffè fumante al mio risveglio. Fin qui bene. Ma cosa succede se un giorno mi devo svegliare prima? Posso scordarmi la casa calda e il caffè, se gli elettrodomestici non dialogano con la sveglia. La presunta intelligenza degli apparati elettronici senza la capacità di comunicare non è una gran cosa."
"Per comunicare c'è bisogno di standard e i migliori oggi disponibili sono gli internet protocols. Oggi il costo per la connessione alla rete internet si aggira intorno ai 300 dollari (circa 540.000 lire), ma il server web iPic ha mostrato che si può scendere sotto il dollaro. E questo potrebbe cambiare tutto... Io penso ad un futuro, molto vicino, in cui tutti i dispositivi elettronici saranno in grado di dialogare fra loro, trasferendosi informazioni di piccole dimensioni ma con effetti assai rilevanti. Il vostro palmare potrà dire al vostro orologio da polso quando è programmato il prossimo appuntamento oppure attivare la sveglia in base alle attività della mattina seguente. Siamo in grado di vedere la velocità di cambiamento del mondo perché adesso ogni pc è connesso a internet e World Wide Web. Ma proviamo a immaginare cosa accadrà quando tutti i dispositivi elettronici saranno collegati fra loro. Per questo dico che il mondo di domani sarà senza dubbio il mondo della connettività diffusa".
Avete avuto contatti con industrie interessate alle applicazioni dell'iPic?
"Ho parlato con i principali produttori di chip e di giocattoli, di lavatrici e di computer, di HiFi musicali e di palmari. La possibilità di costruire veri dispositivi intelligenti, in grado di migliorare la nostra vita, ci sta sollecitando parecchio."
Ho finito il latte, e mi avvisa l'automobile
Sul fronte della miniaturizzazione e della gestione integrata di servizi sono impegnate da tempo alcune case produttrici,
come la Sun Microsystems con il progetto Jini, e la Microsoft con il suo Digital Nervous System.
Ci tornano in mente le parole di Nicholas Negroponte nel suo celebre Being Digital ("Essere digitali", Sperling & Kupfer, 1995): "Se il vostro frigorifero nota che avete finito il latte, può chiedere alla vostra automobile di ricordarvi di andare a comprare una bottiglia sulla via del ritorno. Gli elettrodomestici di oggi hanno una capacità di comunicazione troppo limitata. Probabilmente nella vostra casa ci sono oggi più di cento microprocessori. Ma non sono unificati."
In realtà le tecnologie di costruzione e di arredamento delle case hanno seguito per secoli una lenta evoluzione dovuta principalmente agli sviluppi della meccanica. Dopo la Seconda Guerra Mondiale l'elettronica è entrata in questo settore determinando notevoli cambiamenti, fino a giungere alle case di oggi in cui sono presenti un gran numero di piccoli computer all'interno di elettrodomestici e altri apparati.
E' stato coniato anche uno specifico termine, domotica, e le applicazioni sono sempre più numerose e integrate fra loro.
La nuova frontiera è rappresentata dalla connessione alla rete internet di tutti gli apparecchi della casa (lavatrice, antifurto, televisore, illuminazione, condizionamento e riscaldamento, forno, frigorifero, ecc.). Ogni dispositivo dotato di microprocessore deve disporre al suo interno di un server web e di un indirizzo ip al fine di acquisirne il controllo a distanza tramite la rete internet (tuttora sono impiegate semplici reti locali di controllo e di interconnessione, ad esempio nel caso dei sistemi integrati delle più recenti automobili).
Implementazioni di questo tipo si stanno già realizzando: nel sito http://www.electrolux.com/screenfridge troviamo il progetto del Frigo Eletrolux che permette non solo di navigare dallo sportello dell'elettrodomestico ma anche di avere un un collegamento diretto con l'interno per scoprire in tempo reale se manca qualche ingrediente per la ricetta di domani, se lo yogurth nel frattempo è scaduto, o se il vino è troppo freddo per la cena.
Anche l'automobile di domani sarà diversa da quella che conosciamo
Nei laboratori della Sun Microsystems Laboratory ("SunLabs")
http://java.sun.com/features/1999/06/concept_car.html
è nata un'automobile vestita interamente di Java: dal cruscotto al sistema frenante, dall'anello che sostituisce la chiave (e contiene i dati personali del conducente comprese le preferenza di guida) alla diagnostica completa. Il veicolo, ricavato sulla base di un modello elettrico della General Motors, è stato battezzato EV1.
I limiti di utilizzo delle soluzioni legate agli sviluppi della miniaturizzazione sconfinano nella fantascienza. Basti pensare alle notizie di chip impiantati sotto la pelle o nel cervello di pazienti o di persone desiderose di sperimentare su di sé le possibilità offerte dalla tecnologia. C'è anche qualche azienda che impianta microchip sottopelle a chi vuole essere rintracciabile ovunque, e per designare la fusione tra componenti bio-ingegnerizzati, reti neurali e "Internet biologica" è stato coniato il termine Neuro-internetics.
Un computer con le sanguisughe
sanguisughe Attualmente i livelli più avanzati in questi studi che raccontano come sarà il nostro mondo di domani sono stati raggiunti dai ricercatori del Georgia Institute of Technology: biologi, fisici e informatici, guidati da Bill Ditto, che sono riusciti a realizzare un autentico calcolatore biologico.
Utilizzando cellule neurali di sanguisughe collegate in parallelo e stimolate elettricamente, i ricercatori del Georgia Tech hanno fatto compiere alcune somme aritmetiche al prototipo, subito ribattezzato "leech-ulator" (leech = sanguisuga).
Ogni neurone ha una propria attività elettrica e risponde in un modo caratteristico agli stimoli elettrici, e quelli delle sanguisughe sono studiati da tempo.
Il gruppo fa uso della teoria del Caos per tentare di comprendere e riprodurre il comportamento delle cellule cerebrali (Physical Review Letters, 7 September 1998) e stava tentando da tempo la realizzazione di un sistema di questo tipo. I loro sforzi sono ora concentrati verso la realizzazione di computer flessibili e veloci in grado di risolvere i problemi da soli. Sarà questa la nuova frontiera del computer?