Una settimana fa c’è stato il grande successo di TEDxTorino. Per ricordarlo abbiamo realizzato uno Storify con quello che serve per riassumere per quanto possibile una grande Leggi tutto “Lo storify del TEDx Torino”
Categoria: Innovare
Piemonte Visual Contest 2017: protagonista è il ‘900. Le iscrizioni sono aperte fino al 15 maggio
La quarta edizione del Piemonte Visual Contest si focalizza sul Novecento in Piemonte e il suo impatto sul nuovo Millennio . Il Piemonte Visual Contest è organizzato dal Consiglio Regionale Leggi tutto “Piemonte Visual Contest 2017: protagonista è il ‘900. Le iscrizioni sono aperte fino al 15 maggio”
Apisfero: le api e la tecnologia a braccetto. Presentato uno strumento per contare la Varroa che si finanzia con il crowdfunding
Apisfero è un’Associazione di Promozione Sociale che crede nel valore del sapere diffuso messo a disposizione dell’Ambiente. Il primo strumento che Apisfero ha presentato è BeeVS, Leggi tutto “Apisfero: le api e la tecnologia a braccetto. Presentato uno strumento per contare la Varroa che si finanzia con il crowdfunding”
47th Lunch Seminar al Nexa Center. Vi racconto del copyright e di Yeerida
Ci siamo conosciuti in novembre, io e il Nexa Center. Un centro di studio e ricerca rivolto all’Internet & Society a me pareva un italico sogno, fino a sei mesi fa. Quando conobbi il centro Nexa, e i ragazzi del Nexa, mi sentì in effetti entusiasta allo stesso modo di un bambino nerd che incontra altri bambini nerd.
Bullizzati per una vita da tutti, ora insieme parlano e giocano.
Soprattutto, ero sorpreso positivamente dal fatto che molti fossero gli incontri organizzati dal Nexa e molte le tematiche d’avanguardia che erano state sviscerate (in toto o in parte) dai relatori e dai nexa’s fellow.
Il solo fatto poi, che siano Juan Carlos de Martin e il mio ex professore di diritto d’autore Ricolfi i capi del centro, ha scosso in me un forte senso di appartenenza e tensione emotiva (intellettuale?), sicché sono fan sfegatato del primo e orgoglioso allievo del terzo.
Francesco Ruggiero mi propose così di intervenire, come facente parte di questo processo di evoluzione e cambiamento che è in auge, quando si parla di copyright.
“Parla di contenuti intellettuali, di copyright. Di com’è che voi siete il primo sito che autorizza la lettura di testi out e under copyright” mi disse.
Fu così che Francesco, responsabile della comunicazione del centro Nexa, mi invitò a fare da relatore in occasione del 47th Lunch Seminar presso il Nexa, chiedendomi di parlare di Yeerida e di come secondo me sta cambiando il diritto d’autore.
Io ho colto la palla al balzo e mi sono sentito anche un po’ lusingato.
Di seguito trovate i link dell’evento su Eventbrite: http://lunch47.eventbrite.com/
Riporto qui la presentazione dell’evento, a cura del Nexa Center.
” Il terzo millennio ha portato grandi cambiamenti nelle nostre abitudini e nei nostri gesti quotidiani, cambiando il nostro modo di intendere cose che prima sembravano semplici.
Nel caso del copyright dei contenuti intellettuali, eravamo abituati a proiettare la nostra idea di contenuto nel corpo fisico del media che lo avrebbe diffuso. Un testo letterario veniva visto come un libro, una composizione come un cd, un articolo come un foglio di giornale, un corto o lungo-metraggio come una pellicola.
Le moderne tecnologie di diffusione di contenuti come lo streaming e il web 2.0 ci costringono a fare lo sforzo di separare queste due entità che abbiamo sempre tenuto insieme, intendendo l’informazione intellettuale come assoluta e indipendente, rispetto al suo (facoltativo) supporto fisico.
Tutto ciò ci costringe a pensare a nuove strutture del diritto d’autore e dei diritti connessi che guardi non più, prevalentemente, al possesso dell’oggetto fisico che distribuisce l’informazione, bensì all’utilizzo o la semplice fruizione dell’informazione stessa. ”
Biografie:
Federico José Bottino ha 24 anni e si occupa di comunicazione digitale e scrittura creativa. Dopo essersi diplomato presso il liceo classico di Susa, ha studiato Giurisprudenza, collaborando con lo studio legale Ciurcina-Tita. Pubblica una raccolta di racconti nel 2013, da allora è autore per diverse testate online, curando blog su cultura, spettacolo e innovazione. Nel 2015 ha ideato e fondato Yeerida, la prima piattaforma di free streaming letterario, a oggi ricopre il ruolo di CEO di Yeerida Italia s.r.l.
Nel 2015 abbandona giurisprudenza per studiare ICT.
Letture consigliate:
- A. Cogo, I contratti di diritto d’autore nell’era digitale, Giappicchelli Editore, Torino 2011.
- A. Ross, Il nostro futuro: Come affrontare il mondo dei prossimi vent’anni. Feltrinelli, Milano 2016.
- A. Giddens, Le conseguenze della modernità, Il Mulino, Milano 1994.
Renault presenta la prima auto elettrica open source basata sulla piattaforma Osvheicle nata in Piemonte
Una delle maggiori novità del Ces di Las Vegas, il maggior evento tecnologico dell’inverno, è Pom, un veicolo elettrico presentato da Renault basato su Twizy compatto e leggero dotato Leggi tutto “Renault presenta la prima auto elettrica open source basata sulla piattaforma Osvheicle nata in Piemonte”
Facebook e il pulsante antibufala. Post-verità o post-editoria?
Leggi l’articolo sul Blog di Federico José Bottino.
Ha pochi giorni la notizia secondo la quale Facebook ha annunciato guerra alle bufale, inserendo un pulsante adibito alla segnalazione delle notizie dubbie.
Il contenuto segnalato verrebbe, secondo M.Z. controllato da una società terza di fact checking. Se individuato come bufaloso sarà quindi impossibile sponsorizzarlo per raggiungere utenti in forma massiva, altresì gli algoritmi di selezione contenuti dovrebbero far sì che il contenuto falso compaia molto meno sui feed degli utenti. Una censura soft che smaschera la reale identità del gruppo di Mark Zuckemberg: un editore.
Leggevo oggi su Linkiesta Andrea Coccia che fa un’arringa in favore del sacro ruolo del giornalista e di come Facebook non debba prendere il posto del The Guardian, definendo negativamente l’ontologia di Facebook come un “non editore”. Andrea cita la metafora del bar e parla di Facebook come una grande piazza in cui tutti si scambiano informazioni.
Nella forma in qui si pensa a Facebook come un servizio web che giova dalla larga (e contemporanea) presenza di più utenti che si scambiano informazioni, questa, la metafora del bar, non sembra una cosa così stupida.
Se invece si pensa Facebook come una 4.0 industry che non appartiene alle categorie tradizionali, sulle quali si dannano (ancora) certi giornalisti e certi opinionisti del mondo del business, sì evincerà facilmente come The Social Network sia quello che io appello con preoccupazione post-editore.
Vai tra’. Ora ti spiego.
Cos’è un post editore?
Iniziamo dalle basi. Cos’è un editore. Ovvero un editore è un soggetto che opera nel settore dei contenuti testuali, audio, visivi o multimediali. Sceglie, seleziona, edita, distribuisce, promuove e infine monetizza i suoi contenuti. E sottolineo l’aggettivo – ora pronome – “suoi”, poiché verrà poi ripreso nel ragionamento per ragioni facilmente già intuibili di copyright.
La rete di contenuti di Facebook si poggia e si alimenta su tre concetti fondamentali, uno più tradizionale, uno moderno, uno davvero contemporaneo: interesse sociale, (free) self publishing, sensazionalismo e capacità di ingaggio.
Facebook che è di base un content provider, ha da sempre settato i suoi algoritmi per favorire i fenomeni di viralità. La viralità è spesso data dall’interesse sociale e di attualità di un determinato contenuto e dalla capacità di un set di keyword (parole chiave e parole correlate) di diventare un hot trend, ovvero un contenuto che scala l’utenza in mediamente poco tempo. Da sempre l’editoria, per incrementare le vendite punta a produrre contenuti rivolti a trend che sappiano attirare l’utenza. Fin qui…
Allo stesso tempo, Facebook è una piattaforma che ha come motore del suo traffico l’UGC (User Generated Content), sfruttando un’opzione che dal 1931 a oggi è diventato sempre più socialmente accettato: il self publishing.
Su Facebook, ogni utente è al tempo stesso un autore di contenuti oltre che un fruitore di contenuti. Questo rende a tutti gli effetti Facebook al tempo stesso sia un editore che un media.
Se però un editore tradizionale ha come obiettivo (in teoria!) quello di creare contenuti di presunta qualità, sfruttando un trend per attirare un bacino critico, Facebook fa il contrario: parte dal presupposto di stimolare il bacino più grande possibile di utenti e solo successivamente si chiede che tipo di contenuto è riuscito a farlo.
Per Facebook, ciò che è fondamentale in un contenuto è la capacità sensazionalistica di ingaggiare il più persone possibili e provocare in loro una reazione. Di per sé, questo reazioni sono analizzabili e scalabili (diciamolo pure) e danno la possibilità agli algoritmi di selezione di favorire (o sfavorire) certi o altri contenuti.
La dichiarazione di Mark lascia intendere che la metodologia rimarrà immutata e verrà inoltre applicata a contenuti informativi come appunto le notizie, coinvolgendo una struttura terza eletta dall’imperatore Mark per praticare fact-checking.
Questo rende a tutti gli effetti Facebook un vero e proprio editore che, nonostante distribuisca e promuova materiale editoriale approvigionato da utenti volontari, non pratica un controllo, un editing o una metodologia di selezione per avere quella che gli utenti potrebbero identificare come una linea editoriale. La linea editoriale di Facebook è dettata dagli stessi autori che, non subendo una selezione hanno le dita libere di correre sulla tastiera e diffondere qualsivoglia contenuto, purché raggiunga il numero maggiore di utenti possibili, e possibilmente, che li intrattenga per più tempo possibile. Il copyright di questi contenuti tuttavia viene co-gestito da facebook al momento della pubblicazione.
Inoltre la capacità di un contenuto di intrattenere e attirare gli utenti si trasla per le casse di facebook in potere economico e capacità di alzare i prezzi dei propri contenuti pubblicitari, senza retrocedere alcunché agli utenti.
Ed è proprio questo che rende Facebook un post editore: la condizione di monetizzare contenuti auto-pubblicati, senza retrocedere nulla al proprio autore che vede la propria condizione di autore soddisfatta non dall’autorevolezza riconosciutagli (anche per mezzo di pecunia) ma dalla capacità di scuotere emotivamente i lettori e accumulare punti engagement.
La fortuna di servizi come Facebook sono proprio i giornalisti che non fanno i giornalisti ma fanno gli scrittori
Cavalcando l’onda emotiva dell’ultimo ventennio, nel giornalismo la verità ha ceduto il passo al fine di favorire una cosa che fa fatturare molto di più, la visibilità.
Se fino agli anni ’80 il mantra del giornalismo era costituito dalla narratio dei fatti (duri e crudi, alla Oriana Fallaci), oggigiorno il discriminante è il numero di lettori ingaggiati (non raggiunti, ingaggiati. Engagement, quella roba lì). Inteso questo narcisistico meccanismo che da Travaglio in poi ha segnato ogni volto che figuriamo nel pensare a un giornalista, Facebook, per mezzo di una finissima strategia editoriale e comunicativa, se li è inculati di brutto.
Innanzitutto li ha tranquillizzati. Quegli altri e i loro capi.
Facebook ha assicurato loro di non essere un editore e non volerlo mai diventare. Lo ha fatto perché quando iniziavano a chiederglielo, c’aveva gli Istant Articles in sviluppo (o in fase test, chessoio) e doveva convincere i giornalisti e gli editori che sarebbe stato bellissimo essere tutti inglobati dalla grande infrastruttura che è Facebook, dando la possiblità agli utenti di accedere ai contenuti giornalistici direttamente dalla piattaforma di Mark.
I giornalisti, noti cervelli fini e analisti impeccabili, ci sono cascati con tutte le scarpe e dopo aver consegnato il loro spazio informativo al social network – non solo con gli instant article: se andate a vedere le fonti di traffico dei più grandi giornali scoprirete che Facebook ha anni fa superato Twitter (e google) per quanto riguarda la provenienza del traffico sulle news. – e ora che il potere dell’informazione sociale rivendicano la loro cosiddetta autorevolezza. L’autorevolezza dei giornalisti. Fa ridere solo a scriverlo. Rivendicano questa loro autorevolezza senza chiedersi però dove fosse questo sacro valore quando Mosca Tse-Tse e PiovegovernoLadro fondavano le basi comunicative e editoriali per quello che sarebbe stato 7 anni dopo il secondo partito della politica italiana, visto che poco più di un lustro fa illustri giornalisti parlavano di internet come uno spazio lontano dall’editoria.
Chissà che fra qualche anno non si parlerà di Facebook appunto come editoria 3.0.
O post editoria.
Se ti è piaciuto l’articolo, ne trovi altri sul blog di Federico José Bottino.
L’ AI di google translate inventa un nuovo linguaggio per tradurre meglio
A inizio settimana scrivevo di Amazon Go e di come i cassieri farebbero bene a trovarsi un qualcosa di meglio da fare. Oggi ripropongo la stessa riflessione ai traduttori e interpreti. Visto che l’Intelligenza Artificiale di Google ha appena inventato un nuovo linguaggio (interlinguaggio) per migliorare la qualità (e l’efficienza) della traduzione.
Ricordo la mia professoressa di greco. Ci preparava alla maturità classica. Ci citava Gilles Mènage e diceva che una traduzione poteva essere bella e infedele oppure brutta e fedele. Si riferiva alla caratteristica letterale o libera della traduzione; aveva in testa i grandi autori greci e latini. Ci preparava alla maturità.
Che fosse bella o brutta, fedele o infedele, tutti hanno sempre pensato che la capacità di tradurre da una lingua all’altra, non tralasciando quelle sfumature idiomatiche spesso difficili da rendere nella lingua in cui si traduce, fosse unicamente una prerogativa umana. Abbiamo canzonato per anni google translate e la sua (in)capacità di fare una traduzione decente.
Oggi però Google Translate ha raggiunto una storica tappa nella fantascientifica trama che vede la macchina avvicinarsi all’uomo e alle sue capacità umane. L’IA di Google Translate fonda un nuovo linguaggio per aiutarsi a tradurre meglio da una lingua all’altra.
Lo stesso video spiega come sia stato possibile per l’IA di Google “inventare” un nuovo linguaggio per facilitarsi a tradurre i “paia” di idiomi coinvolti e fa un interessante raffronto con la comunanza logica fra coreano e giapponese.
In sostanza, per una macchina lo sforzo di ricreare ogni combinazione possibile fra i varie lingue è talmente arduo che è la macchina stessa a utilizzare una interlingua con cui confrontarsi con l’idioma di provenienza, per poi tradurre da questa stessa interlingua verso l’idioma desiderato. Questo concetto non è nuovo e lo troviamo spesso citato nei testi riguardanti la traduzione automatica appellato come Lingua Pivot , risale circa agli anni ’50 e la sua metodologia è utilizzata da molti metodi di traduzione, operando sui testi tradotti veri e propri parsing.
Quello che dunque deve farci brillare gli occhi è il fatto che a inventare questa nuova lingua pivot, non sia stato un ricercatore o un dottore di linguistica e traduzione, bensì un (super)computer. Il linguaggio di Google Translate è creato da Google Translate e compreso solo da Google Translate stesso.
La vera rivoluzione consiste nel merito degli ingegneri informatici di aver introdotto nei sistemi di Google Translate una rete neurale capace di analizzare le frasi come blocchi unici e non più come insieme di elementi ab soluti.
Per esempio se la rete neurale ha imparato a tradurre dall’Italiano al Giapponese e dal Giapponese all’Inglese, conseguentemente la rete sarà in grado di tradurre dall’Italiano all’Inglese. Questo permette quindi al sistema di Google Translate di scalare il sistema rapidamente e tradurre in un numero sempre maggiore di linguaggi, aumentando la velocità di analisi e la qualità dell’output.
Al di là del fascino di star vedendo nascere un vero linguaggio comune universale, quello che ci deve far riflettere è la reale possibilità da parte delle IA di raggiungere risultati paragonabili a quelli umani, dissipandone l’esclusività.
Secondo i ricercatori di Google non c’è dubbio sul fatto che il team di Google Translate sarà in grado di allenare una singola macchina di rete neurale volta alla traduzione che funziona su più di 100 lingue. E parlano di un futuro prossimo. Molto prossimo.
Rincara la dose il co-fondatore di Tilde, il quale assicura che la tecnologia di traduzione neurale funziona già bene e già sta portando dei risultati, specie quando andiamo a trattare testi semplici. Mette un po’ le mani avanti dicendo che comunque rimaniamo a un punto nel quale la traduzione umana può cogliere differenze semantiche, sfumature idiomatiche e caratteristiche lessicali che per una moltitudine di fattori che per ora sfuggono al calcolo degli algoritmi sono difficili da determinare. Ancher per un supercomputer.Google Translate a oggi supporta 103 lingue e ogni giorno traduce più di 140 miliardi di parole ogni giorno.
Pensabile quindi che l’attività di traduzione sia sempre più rivolta alla consulenza , al fine di allenare sistemi di deep learning o per controlli ex post. Questo per lasciare spazio alle macchine, così che possano imparare da noi a essere migliori di noi.
Se ti è piaciuto questo articolo, ne trovi altri nel blog di Federico José Bottino.
Pebble fa ciaone a tutti e scappa con i soldi.
Pebble fa ciaone a tutti e scappa con i soldi di Fitbit.
Quando si suole dire che ognuno di noi, ogni idea, ogni impresa, ogni prodotto, ogni persona ha un presso, si dice il vero.
Ce ne ricorderemo quando penseremo al caso Pebble .
Il colosso del werable, Fitbit ha appena acquisito la start up approdata su kickstarter qualche anno fa, acquistando gli asset tecnologici relativi ai software e al know how sviluppato dai tecnici di Pebble.
Il silenzio del blog di Pebble era stato visto con sospetto dai curiosi che iniziavano a vociferare circa la possibile e prossima exit in favore di un qualche big.
C’è che sappiamo è che l’acquisizione degli asset di Pebble è stata compiuta nella giornata del 6 dicembre, senza che venisse pubblicamente comunicato il valore dell’operazione. Ciononostante nei giorni precedenti si è parlato di un esborso cash di circa 30-40 milioni di dollari, anche se l’indiscrezione si riferiva prevalentemente all’acquisizione dell’intera società. Avendo percò Fitbit, acquisito solo asset specifici di Pebble, non si è presa in carico l’onere dei debiti della società, che saranno probabilmente sanati con la liquidità maturata con il controvalore dell’acquisizione.
Pebble nel suo blog precisa alcuni aspetti: si scusa con gli utenti per il suo lungo silenzio e specifica alcuni aspetti del futuro della start up. Già oggi non si possono ordinare nuovi Pebbles dal sito della startup che ha anche organizzato un sistema di rimborso per coloro che hanno aderito alla campagna di kickstarter ma non riceveranno nessuna ricompensa.
Innanzitutto Pebble non promuoverà, né distribuirà, né svilupperà nuovi smartwhatch.
I dispositivi fin’ora venduti continueranno a funzionare normalmente: non sono previsti immediati cambiamenti.
Prevedibile tuttavia che i servizi Pebble vengano ridotti e inficiati in futuro per cercare di far migrare i customers verso la gamma di smart-things di FitBit.
Nel frattempo ieri sera è arrivata anche la conferma da parte del CEO di Fitbit, James Park, che ha detto
“Pebble è stata un’apripista del più grande, aperto e neutro sistema operativo per dispositivi connessi che andrà a complementare la compatibilità multi-piattaforma di Fitbit, che ad oggi conta 200 dispositivi, tra iOS, Android e Windows Phone […] Con gli indossabili di base che diventano sempre più smart e gli smartwatch che aggiungono funzionalità health e fitness, vediamo l’opportunità di costruire sui nostri punti di forza ed estendere la nostra posizione di leadership nella categoria dei wearables. Con questa acquisizione siamo ben posizionati per accelerare l’espansione della nostra piattaforma e dell’ecosistema per rendere Fitbit una parte vitale della vita quotidiana per un più ampio numero di consumatori, così come costruire gli strumenti che i fornitori di servizi sanitari hanno bisogno per integrare in maniera più significativa la tecnologia indossabile nelle cure preventive e croniche”
Sempre più evidente dunque il fatto che il mercato del tech stia abbandonando la sua vocazione di concorrenza pura e perfetta, come si auspicava alla fine degli anni ’90, per consolidarsi in un oligopolio in mano a big. I quali non investano nuovi capitali in ricerca e sviluppo ma investono in start up per poi acquisirne gli assets.
New economy? Nah.
Amazon Go: il negozio senza casse e senza fila. Chi ha paura di Amazon?
A Roma, alla presentazione di YourDigital ieri si è parlato di AmazonGo. Raffaele Gaito spiegava i meccanismi che portano l’innovazione a cambiare e/o reinterpretare il mercato, creando nuove abitudini e nuove differenze.
Fino a qui, tutto bello.
Raffaele ha citato altri esempi di trasformazione digitale: Kodak, Blackberry, Blockbuster. Tuttavia l’iniziativa di Amazon – sarà perché è di fatto agli albori – mi ha colpito più delle altre. In effetti mi ha affascinato moltissimo. Ma mi ha anche fatto interrogare su quanto dobbiamo essere (diventare, necessariamente) flessibili sulle nostre idee di innovazione, lavoro e automatizzazione.
Che Cos’è Amazon Go?
Amazon ha deciso di rivoluzionare il mondo degli shop e dei retails creando il suo nuovo servizio, Amazon Go che sfrutta le tecnologie di screen vision, deep learning e sensor.
Negli shop di Amazon Go non ci saranno file, non ci saranno casse. Non ci saranno cassieri. I consumatori entreranno nel negozio, prenderanno quello che serve loro e usciranno (they actually walk out).
Il progetto verrà lanciato nel 2017 a Seattle 2131 7th Ave, Seattle, WA, all’angolo con 7th Avenue and Blanchard Street.
Come funziona Amazon Go
La sfida di Amazon, iniziata 4 anni fa, era questa: “offrire l’esperienza di un negozio senza limiti, barriere o checkout (casse e scontrini)”.
Per farlo Amazon ha ideato un ambiente nel quale incrocia tre tecnologie di riconoscimento, apprendimento e analisi di dati e, certamente, di data mining.
Il compratore al suo arrivo al negozio Amazon, passa sopra un scanner il proprio telefono attivando il proprio Amazon Account. Dopo essersi registrato, saranno i software a riconoscere quali prodotti il consumatore ha preso e portato via, quanto ha speso e fatturare al consumatore il conto in digitale, direttamente tramite il proprio Amazon Account.
I dati raccolti da Amazon saranno sempre di più.
Perchè è esattamente questo il punto.
Dopo essere diventato il più grande negozio on line e aver tracciato le compravendite dell’intero mondo per più di 15 anni, Amazon ora vuole varcare le frontiere del digitale e approdare su supporti analogici. Questo, per quanto sia a livello imprenditoriale avvincente, in un discorso sociologico è quantomeno direzionato al monopolio dei dati, nell’ambito degli acquisti e delle vendite. La tecnologia di Amazon Go infatti non sarà solamente in grado di digitalizzare e smaterializzare gli scontrini, sarà anche capace di raccogliere dati circa il tempo e l’ordine di acquisto dei prodotti, la loro periodicità, i trend di vendita dei prodotti, la capacità di acquisto dei consumatori.
E qui non stiamo parlando dell’Istat. Qui stiamo parlando di Amazon, che conoscerà come spendiamo i nostri soldi, meglio di chiunque altro.

I cassieri devono avere paura di Amazon Go?
Sì devono. Questo tipo di tecnologia si dimostrerà largamente conveniente per le multinazionali degli stores e Amazon sarà il primo della fila a spingere questo cambiamento.
Chiunque conosca l’ambiente dei magazzini di Amazon, sa che la catena produttiva è incentrata su impianti automatici che costringono i “magazzinieri” che ci lavorano (picker) a correre – letteralmente correre – da un punto all’altro per rispettare i tempi che il sistema di produzione impone loro.
Loro stessi, che ci lavorano, sanno che verranno sostituiti dalle macchine non appena il machine learning sarà a un punto tale da permettere la piena automazione del lavoro nei magazzini, che richiede capacità di scelta critica e di spostamento fisico di oggetti.
Amazon Go dimostra che se si riesce a portare il consumatore direttamente all’interno di quello che in realtà è un magazzino Amazon, posso far lavorare solo le macchine, sollevando l’uomo dalla necessarietà dell’impiego.
Evidente dunque quanto ci sia bisogno di riflettere su un sistema di welfare che sia preparato a dare qualcosa da fare (e da spendere) a quelle persone che a livello professionale, in questo preciso momento storico-tecnologico, varranno meno o quanto una macchina. Che sembra brutto da dire, ma è proprio ciò che dobbiamo chiederci.
“Nel momento in cui siamo di fronte al fatto che certi (molti, sempre più) lavori potranno essere condotti con maggior efficacia da una macchina o un sistema di macchine, noi che famo?”
Lunedì 5 dicembre la presentazione dei primi risultati di Torino Living Lab Campidoglio e dei 32 progetti attivati
Il quartiere Campidoglio ha ospitato dal mese di giugno le 32 sperimentazioni che imprese, startup, Università e Centri di Ricerca hanno proposto alla Città rispondendo al primo bando di Torino Living Leggi tutto “Lunedì 5 dicembre la presentazione dei primi risultati di Torino Living Lab Campidoglio e dei 32 progetti attivati”
I vincitori della finale regionale della StartUp Europe Awards
aGrisù, GetWYS, Last Minute Sotto Casa, Net2Share, Progetto AgriLab, Synapta – Contratti Pubblici, Yeerida, WaterView: sono queste le 8 start-up che si sono aggiudicate la finale regionale della StartUp Leggi tutto “I vincitori della finale regionale della StartUp Europe Awards”
Core Values. Il Vaticano che sfida la complessità del web
Siamo a Roma io e Jacopo Maria Vassallo, quel 4 di novembre. Ci siamo alzati presto, per recarci a Core Values. Dopo una non proprio breve passeggiata e una colazione, un po’ troppo repentina per essere chiamata “colazione”, eccoci finire i resti di un croissant, con le schiene appoggiati a mura non più Italiane. I nostri sguardi si arrampicano sull’obelisco di Piazza San Giovanni in Laterano. Ci circonda il rumore di mercedes e audi nere che fanno il giro della piazza e si fermano solo per scaricare top manager e chairman da tutto il mondo. Noi, che siamo arrivati a piedi, ce ne saremo poi andati con un normalissimo taxi bianco.
Ci mettiamo in fila e conosciamo un professore dell’Università di Perugia che si occupa di complessità. Gli stiamo simpatici, decide di sedersi vicino a noi. Con lui avremmo poi commentato una parte della conferenza e ci saremmo dunque fatti una minima idea di quanto ardua sia la sfida lanciata dal Vaticano, raccolta dai padroni della comunicazione digitale internazionale: la trasmissione dei valori nell’era tecnologica del digitale.
Cos’è Core Values
Core Values è un’iniziativa promossa e patrocinata dalla Segreteria per le Comunicazioni della Santa Sede, recentemente inaugurata da Papa Francesco, dalla Pontificia Università Lateranense e dalla Tela Digitale. Lo scopo dell’iniziativa e far sorgere, alimentare e dunque promuovere una riflessione sulla necessarietà di infondere valori nelle comunicazione digitali, al fine di dare i giusti strumenti etici alle nuove generazioni.
Le menti del Vaticano propongono una ben ampia domanda: “quali sono le trasformazioni che la rivoluzione digitale porta con sé, quali i valori che ci devono sostenere?”.
Non penso di fare nessuno spoiler, se vi dico che nessuno fra i big presenti ha saputo fornire una risposta anche solo lontanamente soddisfacente.
L’incontro si è svolto nell’ Aula Magna Benedetto XVI ,
con di fronte alla platea, la cattedra con il grande mosaico da cui il Divino Maestro pronuncia la sua Parola, attorniato dalle mistiche pecorelle e contornato in alto dai simboli degli Evangelisti con la scritta: “Magister vester unus est Christus”.
Il grande Cristo in Mandorla mosaicato, che guarda le spalle ai signori di Google, di Dentsu, di Vice e di CandyCrush (sì, c’era pure il capo della software house che ha ideato il giochino delle palline colorate), ci fisserà tutti, vigile, per l’intera durata della conferenza. E sarà stata la suggestione o il poco sonno ma il Suo sguardo in certi momenti mi sembrava terso, come se stesse percependo la difficoltà di infondere strutture assiologiche come i Valori nel flusso dirompente, disordinato e discontinuo, che è il web.
I relatori di Core Values
La conferenza è stata suddivisa in tre fasi: Comunicazione, Advertising, Tecnologia.
A seconda della loro specificità, competenza o agiatezza nel parlare, i relatori erano stati assegnati a una di queste fasi e insieme formavano un panel di alto livello che per un’ora e quarantacinque avrebbe provato a snocciolare il discorso dei Valori nel web dal loro prestigioso punto di vista.
Advertisting | Moderator: Philip Larrey, Pontifical Lateran University; Vatican City
- Sir Martin Sorrel, CEO of WPP; London
- Maurice Lévy, President of Publicis Group; Paris
- Jerry Buhlmann, CEO of Dentsu Aegis Network; London
Communications | Moderator: David Willey, Vatican Corrispondent for BBC; Vatican City
- David M. Zaslav, President and CEO of Discovery Communication Inc. ; USA
- Kenneth W. Lowe, Chairman, President and CEO of Scripps Networks Interactive, Inc. ; USA
- Naguib Sawiris, President at Orascom Telecom Holding; Cairo
- Vincent Montagne, President and CEO, Média-Participations; France
New digital technologies | Moderator: Delia Gallagher, Vatican Correspondent for CNN; Vatican City
- Prince Nikolaus of Liechtenstein, President of FEM; Rome
- Carlo D’Asaro Biondo, President of Google; EMEA
- Eddy Moretti, Creative Director of Vice Media; U.S.A.
- Riccardo Zacconi, Co-Founder & CEO of King Entertainment; London
Eric Schmidt, Executive Chairman of Alphabet; USA, fa la suo comparsa solo in digitale, appunto, tramite un video-messaggio, lasciando l’onere dell’argomentazione a Carlo D’asaro Biondo. Questo un po’ ci è spiaciuto perché l’opportunità di conoscere l’artefice del nuovo assetto societario di big G, sarebbe stato elettrizzante. Ma abbiamo ascoltato tutti gli interventi con interesse e curiosità, senza però avere una reale idea di come rispondere alla domanda posta dagli organizzatori del Vaticano.
I relatori hanno spiegato come si possono sfruttare le nuove tecnologie per indurre gli utenti ad assumere atteggiamenti responsabili. Hanno fatto ad esempio vedere il prototipo di una chiave d’accensione di un’automobile che funziona solo se il tasso alcolico del guidatore è a norma di legge.
Hanno parlato di come il digitale può dare nuova rilevanza e nuove analisi a problemi sociologici che affliggono la nostra società. Hanno discorso su come la comunicazione attraverso mezzi digitali sia una potente occasione per incanalare messaggi in un sistema media many to many. Si è citato l’importantissimo ruolo del carattere multimediale dei contenuti e quindi di nuove forme di narrazione e comunicazione interattiva. In certi casi di comunicazione all’interno di una realtà aumentata, e dunque delle nuove frontiere della proiezione identitaria degli individui, non più online, bensì onlife: una dimensione in cui vita digitale e analogica si mischiano e si aumentano vicendevolmente, espandendosi una nei confini dell’altra.

Ai panel, sono seguite cinque domande da parte dei partecipanti. Una di queste domande era formulata dal sottoscritto. Mi presento (bisognava presentare il prorio ruolo se no nun te facevano parlà!). Spiego che sono CEO di una piattaforma che permette a chiunque, ovunque, di leggere gratis in streaming. Mi rivolgo ai relatori del secondo panel, quello della comunicazione. Chiedo loro come sia possibile permeare l’iper-testo di valori, quando i valori (antropologicamente) chiaramente necessitano di testi non mobili, di testi fermi, costanti e sempiterni, che possano offrire la stessa lettura degli stessi valori per le generazioni presenti e poi future. Soprattutto se si pensa al fatto che uno dei grandi problemi del web è proprio la non permanenza delle informazioni, la loro veloce stratificazione.
A rispondermi è Mr. Lowe che sorride e mi dice che sono proprio i giovani che lavorano su progetti innovativi come le start up, che hanno l’opportunità di sperimentare nuove metodologie di fruizione e distribuzione dei contenuti, coloro che dovranno trovare le risposte per dare vita a nuove metodologie di trasmissione dei valori.
La fisicità dei valori versus la complessità del web
Perché è questo, secondo me, uno dei punto principali.
Mi spiego, approfondendo la ragione della mia domanda sulla stratificazione delle informazioni.
Per prendere un esempio caro alla Chiesa, parlando dunque di Valori Cristiani, facciamo riferimento a un sistema assiologico talmente consolidato che si interseca così tanto con la nostra immaginazione etica, da diventare cultura. Questo processo di culturalizzazione dei valori, viene reso possibile dalla presenza di testi fisici che descrivono l’applicazione di questi valori. Questi testi danno ai valori una cosmologia credibile (soprattutto per la cultura di riferimento). Questa fa sì che i valori vengano ripresi in testi satellite o indipendenti, talvolta conseguenti, che si fondano però sullo stesso sistema assiologico. Un esempio di questa subordinazione assiologica fra due opere conseguenti e di natura differente è dato dal rapporto fra il Nuovo Testamento e la Divina Commedia di Dante.
La Divina Commedia riprende dei valori descritti nel suo testo di riferimento (il Nuovo Testamento) e li ripropone dandone una lettura, per l’epoca, moderna.
A sua volta la Divina Commedia giunge a noi grazie a testi di studio, critica e citazione, contribuendo alla formazione della nostra cultura; che di fatto è cristianizzata.
Vige sempre, tuttavia, la fisicità del supporto mediatico (testo), il quale, nella sua fisicità, trova rimedio alla stratificazione delle informazioni successive.
Il web non ha ancora ovviato a questo problema, ovvero il sistema di raccolta delle informazioni e quindi dei testi non applica dei filtri per manipolare la permanenza di questo testo nel flusso principale di informazioni. Questo fa sì che un’informazione, anche testuale, non possa da sola consistere nel fondamento (o nella perpetuazione) di un valore. E che a sua volta quest non sia in grado di esercitare un’ influenza culturale sufficientemente proiettata nel lungo periodo, da permettere la nascita di contenuti satellite conseguenti, che hanno la funzione di ammodernare i valori e dar loro nuovi fruitori e nuovi orizzonti.
Il flusso continuo di informazioni eterogenee, assieme alla loro conseguente stratificazione, è solo uno degli aspetti della complessità del web.
I valori hanno bisogno di un manifesto sempre accessibile per sussistere. Per diffondere questo manifesto e, affinché sia efficace, dobbiamo prima chiederci come affiggerlo in alto, laddove nessuno possa metterci sopra qualcos’altro.
Riusciremo a civilizzare (in senso stretto) l’internet solo quando questo smetterà di essere un non-luogo e quindi verrà trattato come una vera e propria estensione territoriale, che necessita degli stessi processi teoretici, che sono stati necessari per intendere il mondo analogico nella sua natura complessa.
Che, fuori metafora, vorrebbe poi dire:
“prima troviamo un modo per affrontare e governare il web semantico nella sua reale complessità al fine di rendere i giusti contenuti sempre accessibili, con facilità, al fine di creare un meccanismo vero di diffusione culturale, poi pensiamo a quali valori infondergli”.
Come fare?
Non ne ho idea.
A Torino i festeggiamenti per i primi 5 anni degli Stati Generali dell’Innovazione
Lo scorso 19 ottobre, gli Stati Generali dell’Innovazione hanno superato il traguardo dei primi cinque anni di attività che saranno festeggiati con un percorso partecipativo attraverso tre incontri, in contemporanea, che si svolgeranno il 24 novembre a Bari, Roma e Torino.
L’incontro di Torino si svolge il 24 Novembre alle 19:30 presso gli spazi di Rinascimenti Sociali.
L’evento sarà l’occasione per condividere idee e proposte per il futuro attraverso un percorso partecipativo, avviato con l’assemblea online
Per iscrizioni
Programma per i partecipanti
19:30 Saluto da parte di Millepiani Coworking
19:35 Keynote di Flavia Marzano e Nello Iacono
20:00 Saluto di Sergio Farruggia da Torino
20:05 Saluto di Morena Ragone da Bari
20:10 Intervento di Marieva Favoino su TerremotoCentro
20:20 Cena e socializzazione
21:10 Istruzioni per World Café a cura di Myriam Ines Giangiacomo
21:20 World Café “light”
22:00 Restituzione in plenaria
22:30 Saluti
Startuppato, il 24 novembre a Torino la festa delle startup con oltre 100 progetti innovativi
Torna a Torino Startuppato, la grande festa delle startup e dell’innovazione, organizzata da Treatabit di I3P, che si svolgerà giovedì 24 novembre presso Toolbox Coworking. Oltre 100 i progetti e i servizi che potranno essere provati durante la serata di networking, dedicata agli innovatori, per scoprire come cambia il mercato italiano.
Si parte dai progetti che stanno innovando il mondo del cibo e della ristorazione a quelli che intendono cambiare la mobilità cittadina, dallo stylist a domicilio alla possibilità di collaborare in rete per fare musica: sono oltre 100 gli espositori, i prodotti e i servizi provenienti da tutta Italia.
Organizzato da Treatabit, il percorso di incubazione di I3P dedicato ai progetti digitali, l’evento si svolgerà in Toolbox Coworking oramai diventato un importante hub di innovazione e coworking, in Via Agostino da Montefeltro 2 a Torino e sarà un’occasione unica per provare in anteprima i prodotti e i servizi delle startup che stanno rivoluzionando il mercato italiano in 10 diversi settori: Green, Food & Drink, Home & Design, Travel, Media & Entertainment, Mobility, Professional, Safety, Industrial & IoT, Wellness & Beauty.
Al Politecnico di Torino un nuovo centro per studiare tecnologie innovative per contrastare il riscaldamento globale
A Torino nasce un nuovo centro per lo sviluppo di tecnologie innovative per contrastare il riscaldamento globale. Si chiamerà Centre for Sustainable Futures dell’Istituto Italiano di Leggi tutto “Al Politecnico di Torino un nuovo centro per studiare tecnologie innovative per contrastare il riscaldamento globale”