Assistenza Informatica & Sistemistica - Xion Informatica Milano
Assistenza Informatica & Sistemistica - Xion Informatica Milano

Microsoft e Red Hat definiscono un nuovo standard per il Cloud enterprise

 

La nuova piattaforma per l’impresa consente ai client di scegliere fra Microsoft Azure e .NET

Microsoft e Red Hat hanno annunciato un accordo che aiuterà i clienti di entrambe le aziende ad abbracciare il cloud computing grazie a una maggiore scelta e flessibilità nell’installare le soluzioni Red Hat su Microsoft Azure. Microsoft offre infatti Red Hat Enterprise Linux come scelta preferenziale per i carichi di lavoro enterprise Linux in ambiente Azure a. Inoltre, Microsoft e Red Hat stanno collaborando per soddisfare le più comuni esigenze di imprese, software vendor e sviluppatori in termini di costruzione, installazione e gestione delle applicazioni su software Red Hat in ambienti cloud pubblici e privati.

Tra i termini della partnership sono previsti:

Soluzioni Red Hat disponibili in forma nativa ai clienti Microsoft Azure. Nel corso delle prossime settimane, Microsoft Azure diventerà un Red Hat Certified Cloud and Service Provider e consentirà ai clienti di far girare le proprie applicazioni e carichi di lavoro Red Hat Enterprise Linux in ambiente Microsoft Azure. Gli utenti di Red Hat Cloud Access potranno portare le immagini delle loro macchine virtuali su Microsoft Azure. I clienti di Microsoft Azure potranno inoltre godere appieno del valore della piattaforma applicativa di Red Hat, compresi Red Hat JBoss Enterprise Application Platform, Red Hat JBoss Web Server, Red Hat Gluster Storage e Red Hat OpenShift, l’offerta platform-as-a-service di Red Hat. Nel corso dei prossimi mesi, Microsoft e Red Hat prevedono di fornire le soluzioni “a consumo” Red Hat On-Demand e le immagini Red Hat Enterprise Linux nel Marketplace di Azure, supportate da Red Hat.

·         Supporto enterprise integrato per ambienti ibridi. I clienti potranno usufruire di un supporto inter-piattaforma e inter-aziendale integrato fra Microsoft e Red Hat, a differenza di altre partnership nel cloud pubblico. Collocando team di supporto di entrambe le aziende negli stessi spazi, l’esperienza sarà semplice ed immediata, a velocità di cloud.

 Gestione unificata dei carichi di lavoro su installazioni hybrid Cloud. Red Hat CloudForm sarà interoperabile con Microsoft Azure e Microsoft System Center Virtual Machine Manager, dando ai clienti di Red Hat CloudForms la possibilità di gestire Red Hat Enterprise Linux sia su Hyper-V sia su Microsoft Azure. Il supporto di Red Hat CloudForms per la gestione dei carichi di lavoro su Azure è previsto per i prossimi mesi, ed estenderà le attuali funzionalità di System Center per la gestione di Red Hat Enterprise Linux.

 

 Collaborazione su .NET per funzionalità di sviluppo applicazioni di nuova generazione. Partendo dall’anteprima di .NET su Linux annunciata da Microsoft lo scorso aprile, gli sviluppatori potranno accedere alle tecnologie .NET da diverse soluzioni Red Hat tra cui Red Hat OpenShift e Red Hat Enterprise Linux, supportata congiuntamente da Microsoft e Red Hat. Red Hat Enterprise Linux sarà l’ambiente operativo primario di sviluppo e di riferimento per .NET Core su Linux.

“Questa partnership offre importanti prospettive per ISV e sviluppatori”, ha commentato Scott Guthrie, Executive Vice President della divisione Cloud and Enterprise di Microsoft. “Ci permette inoltre di estendere il nostro impegno verso una flessibilità e una possibilità di scelta senza paragoni negli ambienti Cloud di oggi, il tutto nel rispetto dei rigorosi requisiti di sicurezza e scalabilità che le aziende esigono”.

“Il datacenter è eterogeneo e il cloud è ibrido”, ha dichiarato Paul Cormier, Presidente della divisione Products and Technologies di Red Hat. “Con l’unione tra Red Hat e il leader nel campo dei carichi di lavoro nell’impresa, i veri vincitori oggi sono i nostri clienti. Assieme, infatti, offriamo il più completo accordo di supporto per tecnologie miste a vantaggio dei clienti”.

Pubblicato in News

produzione wafer chip

 

La taiwanese TSMC ha affermato di aver avviato i primi lavori esplorativi per la produzione a 5 nanometri. Prima toccherà tuttavia ai 10 e ai 7 nanometri.

TSMC, il più grande produttore al mondo di microchip per conto terzi, ha avviato i lavori affinché in un futuro non troppo lontano sia possibile produrre chip con processo a 5 nanometri. Mark Liu, co-CEO dell'azienda, ha fatto alcuni commenti in merito durante una conferenza all'inizio di questo mese.

Al momento TSMC non ha comunicato una roadmap ufficiale, e sta ancora valutando se usare la litografia extreme ultraviolet (EUV), un metodo di produzione differente e più avanzato di quello attuale, ma anche ha ancora qualche neo di troppo, dalla velocità di produzione ai sistemi ancora immaturi, cioè non ancora in grado di fornire l'affidabilità richiesta.

Non è chiaro quindi qualche sarà la soluzione adottata da TSMC per la produzione a 5 nanometri, anche se l'industria vede con favore una combinazione tra la tecnologia a immersione 193i di Nikon e l'EUV sostenuta da ASML Holding e altri.

"L'estensione della tecnologia a immersione 193i ai 7 nanometri e oltre è possibile, tuttavia richiederebbe un patterning ottuplo e altri passaggi che aumenterebbero i costi di produzione. Potrebbe rappresentare un freno per i produttori di chip che hanno intenzione di adottare processi inferiori, rallentando la crescita dell'industria", sottolinea il sito EETimes.

A luglio IBM Research ha realizzato un prototipo di chip funzionante a 7 nanometrisfruttando la litografia EUV e transistor con un canale in silicio-germanio (SiGe). TSMC, dal canto suo, ha prodotto la prima SRAM funzionante a 7 nanometri a ottobre e si aspetta di avviare la produzione dei primi chip nel 2017. L'azienda, infatti, dovrebbe eseguire il tape out dei primi progetti a 10 nanometri all'inizio del 2016.

Pubblicato in News

 

 skylake

Sembra proprio che presto sarà possibile aumentare il BLCK delle CPU Intel Skylake non K, ossia con moltiplicatore bloccato. Una bella svolta per chi sta pensando di rifarsi il PC.

Grandi notizie per gli appassionati di overclock e non: a breve sarà possibile overcloccare in modo piuttosto marcato le CPU Skylake con moltiplicatore bloccato, solitamente avare di sorprese sotto questo punto di vista. Espressa la sintesi, è bene fare qualche passo indietro per capire la genesi di questa svolta inaspettata e le varie sfaccettature.

Da qualche settimana, come i più appassionati di overclock sapranno, l'overclocker Dhenzjhen è salito alla ribalta delle cronache per aver portato un Core i3 6320 a 4955 MHz grazie a un BCLK di 127 MHz su una scheda madre SuperMicro C7H170-M modificata.

Un intervento che, secondo quanto riportato da Anandtech, sarà esteso ad altre motherboard ma senza bisogno di un intervento hardware, bensì grazie a un semplice aggiornamento firmware. Una svolta davvero interessante, che non crediamo faccia molto contenta Intel. Le ultime generazioni dei suoi processori, salvo alcuni modelli "K", hanno il moltiplicatore bloccato e il BCLK non è modificabile senza incappare in problemi.

La frequenza della CPU è infatti determinata dalla frequenza base (o base clock, BCLK, solitamente di 100 MHz) e dal moltiplicatore. Solitamente il base clock è sempre stato liberamente modificabile, ma dalle CPU Sandy Bridge a oggi era legato ad altre parti del sistema, come la frequenza del PCIe o l'archiviazione, il che significava che qualsiasi overclock oltre i 103-105 MHz portava a problemi come la perdita di dati e la degradazione del segnale.

L'architettura Skylake cambia tutto questo in quanto chipset e PCIe hanno il proprio dominio di frequenza, mentre la frequenza base influenza solo la CPU (e le sue varie componenti interne), la GPU integrata e la DRAM. Nonostante ciò, l'overclock degli ultimi processori "non K" sembrava rimanere, almeno finora, piuttosto limitato. L'overclocker Dhenzjhen è tuttavia riuscito ad andare oltre le aspettative (+27% sotto azoto liquido). È plausibile che con un raffreddamento ad aria si arrivi a un incremento prestazionale tra il 10 e il 15%.

L'aspetto interessante è che, a quanto pare, quanto raggiunto dall'overclocker sulla motherboard di Supermicro sarà replicabile via software. Almeno è quanto ha confidato ad Anandtech nientemeno che ASRock, assicurando che gran parte delle sue schede madre riceverà un aggiornamento del BIOS che "sbloccherà" l'overclock. Ciò avverà "molto presto".

L'azienda taiwanese ha inviato al sito alcune immagini in cui su una motherboard Z170 OC Formula un Pentium G4400, un Core i3-6300T e un Core i5-6600 hanno visto salire il proprio base clock di oltre il 20% con vette fino al 30%. Il tutto con raffreddamento ad aria.

Al momento l'azienda non ha spiegato qual è il trucco dietro a tutto questo, ma sembra che l'operazione disabiliti automaticamente la GPU integrata, ma solo se il driver di Intel è installato. Qualcosa di cui tenere conto.

A riprova che il tutto non non dovrebbe rimanere limitato a Supermicro e ASRock c'è un overclock a 152,8 MHz del BCLK di un Core i3-6300 raggiunto dall'overclocker elmor, che ha portato la CPU a 5,8 GHz su una Maximus VIII Gene di Asus. Anche in questo caso sotto azoto liquido.

Quanto riportato da Anantech è confermato da Techspot, che ha svolto dei test sul campo con una motherboard di ASRock. Come scritto poco sopra, rimane da capire la posizione di Intel. Se gli utenti potranno acquistare Core i3 o Core i5 "non K" con la speranza di un overclock del 10-15%, le vendite di CPU K potrebbero risentirne.

Pubblicato in News

 facebook big sur 01

 Si chiama Big Sur il nuovo sistema hardware di Facebook che, grazie a otto GPU, punta a istruire reti neurali per compiti di machine learning e lo sviluppo d'intelligenze artificiali. La buona notizia è che sarà reso del tutto open source.

Negli ultimi anni i ricercatori di tutto il mondo e le aziende tecnologiche hanno compiuto passi da gigante nell'ambito dell'intelligenza artificiale e più precisamente in una delle sue aree, il machine learning (apprendimento automatico), dove dati e algoritmi per il riconoscimento di modelli complessi permettono ai computer di prendere decisioni e svolgere compiti.

Il boom di quest'ultimo periodo è legato a due trend: l'ampia disponibilità di dati di ricerca pubblici e l'arrivo sulla scena delle GPU, capaci di macinare quantità enormi di informazioni in minor tempo rispetto ai tradizionali microprocessori.

Tra i tanti che stanno lavorando in questo ambito troviamo Facebook: inevitabile per chi possiede miliardi di informazioni nuove ogni giorno che possono essere analizzate e combinate per creare nuove esperienze, rispondere a problemi e molto altro ancora.

"Abbiamo sviluppato software che possono leggere storie, rispondere a domande, giocare e imparare cose tramite l'osservazione di alcuni esempi. Abbiamo tuttavia realizzato che per prendere davvero di petto questi problemi avremmo dovuto progettare i nostri sistemi", spiegano gli ingegneri Kevin Lee e Serkan Piantino. "Oggi sveliamo il nostro nuovo sistema basato su GPU per istruire reti neurali, il suo nome in codice è Big Sur".

Big Sur è l'hardware "open rack compatibile" più recente di Facebook, pensato per lavorare nello sviluppo di intelligenze artificiali su larga scala. A bordo che sono benotto schede acceleratrici Tesla M40 di Nvidia. Ogni scheda offre una GPU GM200 con 3072 CUDA core affiancati da 12 GB di memoria GDDR5, per una potenza di picco a singola precisione di 7 TFLOPs, un bandwidth di 288 GB/s e TDP di 250 watt.

"Big Sur è il doppio più veloce della nostra precedente generazione, il che significa che possiamo istruire due volte più rapidamente ed esplorare reti il doppio più grandi. Distribuire la formazione tra otto GPU ci permette di scalare la dimensione e la velocità delle nostre reti di un altro fattore pari a due", scrivono i due ingegneri dell'azienda.

Lee e Piantino aggiungono che Big Sur è molto più versatile ed efficiente perché pur usando un raffreddamento speciale e altre soluzioni uniche, sono riusciti a ottimizzare il nuovo sistema per una maggiore efficienza energetica e il funzionamento a temperature inferiori, tanto che è raffreddato ad aria.

"Abbiamo rimosso i componenti che non venivano usati molto, mentre i componenti che si rompevano di frequente - come gli hard disk e le DIMM - possono ora essere rimossi e rimpiazzati in pochi secondi. […] Persino la motherboard può essere rimossa in pochi minuti, mentre la piattaforma hardware originale richiedeva oltre un'ora. Big Sur è quasi interamente smontabile senza l'uso di cacciavite, a eccezione del dissipatore della CPU".

La buona notizia per l'intero settore della ricerca è che Big Sur sarà reso "open source" e sarà sottoposto all'Open Compute Project (OCP). Facebook, in questo modo, spera che altri possano realizzare sistemi simili e persino migliori al fine di compiere passi avanti nel settore dell'intelligenza artificiale in tempi più rapidi.

Pubblicato in News

Microsoft e sicurezza informatica: in Italia è un disastro

 

La sicurezza informatica è un settore ormai cruciale nello sviluppo delle aziende e della Pubblica Amministrazione, ma ancora manca la giusta sensibilità per comprendere i rischi enormi di una arretratezza senza confini. Ne abbiamo parlato con Carlo Mauceli, CTO di Microsoft, per capire di cosa ha bisogno il nostro Paese per uscire da questa situazione.

L'informatica è ormai entrata prepotentemente nei processi produttivi di qualsiasi azienda: tantissimo dipende ormai dai computer sia nel settore privato sia in quello pubblico.

Dati sensibili, documenti, atti, pagamenti transitano ogni giorno sulla rete aziendale, come fosse la linfa vitale che fa funzionare processi e produzione.

Ma cosa accade se il fluire di questa linfa fosse interrotto? Tutti sono concordi: sarebbe un disastro. Cosa si fa, quindi, per proteggerlo? Quasi niente nella maggior parte dei casi e non abbastanza nel resto, con pochissime eccezioni.

Siamo andati a trovare Mauro Mauceli, CTO di Microsoft Italia, nel suo ufficio proprio per fare due chiacchiere con chi è a contatto ogni giorno con aziende ed enti che devono proteggersi contro le minacce informatiche e la sensazione è che la maggior parte di loro sembra non aver idea di come fare.

"In Italia" – ci dice Mauceli – "il panorama della sicurezza delle informazioni è davvero grigio, tanto nella Pubblica Amministrazione quanto nel settore privato."

Il problema principale è che non si è sviluppata quella sensibilità necessaria a vedere la sicurezza come uno degli aspetti principali da tener presente quando si prepara un business. Oggi, la sicurezza è ancora vista come un costo che nessuno vuole sobbarcarsi.

"Il problema" – ci spiega – "è che poi i costi arrivano davvero quando si verifica una intrusione. La spesa tipica per il recovery da un attacco in una media azienda è di circa 3 milioni di dollari".

Al fermo dell'attività, infatti, vanno poi a sommarsi i costi dell'intervento di recupero e pulizia veri e propri, oltre alla necessità di ricostruire spesso completamente l'infrastruttura per eliminare le falle che hanno portato al disastro.

"Troppe reti" – continua Mauceli – "non sono progettate partendo dal concetto di sicurezza: non sono Secure by Design, come si dice in gergo . Le aziende e gli enti si limitano ad applicare qualcosa che dia una impressione di protezione a quello che è un colabrodo."

"Otto aziende attaccate su 10 non vengono colpite perché espressamente prese di mira da attacchi super sofisticati, ma perché non applicano le patch di sicurezza. Quando entriamo in un'azienda o un ente, ci capita di trovare server con un arretrato di 100/150 patch da applicare. Quale può essere la sicurezza in questi casi? E pensare che applicarle non costa niente o quasi…"

Probabilmente questi casi sono il retaggio dell'antico adagio "se funziona, non aggiustarlo", una filosofia di vita che non può più essere applicata al giorno d'oggi perché se il malfunzionamento di una macchina può causare dei danni, una intrusione informatica (che avverrà se non c'è un'attenta manutenzione) comporta problemi molto più seri.

"Eppure, sono pochissimi quelli che fanno del risk management sensato. Ci si limita quasi esclusivamente a un discorso di difesa perimetrale, tralasciando tutto quello che va oltre ed è più importante al giorno d'oggi." – osserva Mauceli.

"Le soluzioni in cloud" – continua il CTO – "sono ingiustamente sottovalutate, le si guarda con sospetto quando in realtà sono gli strumenti più avanzati che un responsabile IT possa sfruttare. Senza scendere in soluzioni particolarmente complesse, basti pensare al sistema di controllo della posta."

Per esempio, proprio Microsoft propone un sistema chiamato Advanced Threat Protection che prevede una "detonation chamber": quando un allegato a un messaggio non viene riconosciuto, il sistema in cloud lo sposta in un'area protetta e lo apre, analizzandone il comportamento e bloccandolo se compie azioni illecite.

Una applicazione emblematica che già ci fa pensare al fatto che fare sicurezza "fuori" dall'azienda è intrinsecamente più sicuro che farla "dentro".

"Quanta infrastruttura di sicurezza può mettere in piedi un'azienda al suo interno? Per quanti soldi possa spendere, sarà sempre una versione minima di quello che può esser offerta da una struttura in cloud che gira in un datacenter dedicato e può contare sui dati che arrivano dall'analisi di milioni di casi".

Quali sono i problemi che Microsoft vede ogni giorno nelle aziende e negli enti in cui va a fare consulenza?

"La classifica è lunga" – risponde Mauceli – "ma diciamo che sei passi possono bastare a coprire la maggioranza dei casi:"

  1. L'obsolescenza dei sistemi è sconfortante. Ci sono servizi critici che girano su macchine e sistemi di 10/15 anni fa, quando la sicurezza era una cosa molto diversa da quella che è oggi.
  2. Non viene fatta manutenzione sui sistemi esistenti: le patch non vengono applicate e questo lascia aperti i sistemi a falle che risalgono a lustri fa.
  3. Le credenziali non vengono protette in maniera adeguata. I motivi sono tantissimi, ma il problema principale è che se le password di amministrazione o degli utenti escono dalla rete, è ovvio che prima o poi qualcuno entri.
  4. Sono pochissimi i casi in cui si definiscono dei ruoli sulle macchine: se non devi installare del software, perché il tuo utente dovrebbe essere di tipo amministrativo?
  5. Non c'è abbastanza competenza nelle aziende per configurare in maniera appropriata tanto gli application quanto i gli authentication server.
  6. Non ci si fida della cloud, quando invece è un alleato potentissimo e a costo ragionevole.

Secondo Mauceli, piccole e medie imprese nonché pubblica amministrazionesono i bersagli tipici di queste casistiche. Cosa bisognerebbe fare, quindi, per smuovere un po' le acque? Cosa si deve fare in Italia per uscire da questa situazione di immobilismo?

"C'è da fare tanto, ma intanto notiamo che le cose stanno cambiando. Già il fatto che nell'ultima finanziaria si sia parlato di destinare 150 milioni di euro allo sviluppo della cybersecurity è un dato importantissimo che può servire a gettare le basi".

L'istituzione di un organismo centrale che coordini gli sforzi in materia di sicurezza informatica sarebbe assolutamente il benvenuto e potrebbe organizzare una serie di attività tese a migliorare la situazione.

Innanzitutto, serve molta formazione, ma soprattutto dal punto di vista del business. Bisogna far capire alle aziende e agli enti che la sicurezza non è più una spesa a parte, ma una voce integrante dell'infrastruttura. Servono corsi e operazioni mirate al contatto con chi decide come devono funzionare i computer.network security

Poi servono anche più sforzi da parte di scuole e università nel formare tecnici specializzati in sicurezza. Gli attuali corsi di laurea soffrono un po' della stessa sindrome delle aziende: la sicurezza non è integrata in tutti gli aspetti che si insegnano, ma gestita come un capitolo a parte.

Dopo averli formati, bisogna anche certificare questi tecnici in modo che possano proporre soluzioni di qualità al mercato, per garantire standard elevati sia nella Pubblica Amministrazione, dove la sicurezza del dato del cittadino dovrebbe essere un dovere morale, sia nel privato dove in caso di intrusione si ha un danno economico notevole.

"Un buon punto di partenza" – conclude Mauceli – "sarebbe quello di iniziare una serie di collaborazioni tra pubblico e privato in modo daportare la competenza delle aziende che conoscono bene questo settore in un ambito che ha problematiche complesse che non possono essere analizzate solo da aziende esterne o solo da personale interno".

Se la NSA ha deciso di collaborare con Microsoft per garantire la sicurezza di alcuni sistemi destinati alla sicurezza nazionale, non si capisce perché non si possano stipulare degli accordi per cose di livello meno impegnativo.

Ma c'è un'ultima cosa su cui Mauceli ci fa riflettere:

"Mettere in piedi tutte le linee guida del mondo è poi inutile se le leggi non si fanno rispettare. Ho detto poco fa che i problemi più grandi derivano da obsolescenza e mancanza di manutenzione, ma miamo un'occhiata a quanto dice la legislazione sul trattamento dei dati. È già stato scritto e ben dettagliato che i sistemi che trattano i dati personali dovrebbero essere aggiornati e revisionati ogni sei mesi, ma cosa succede invece? Che andiamo negli enti e troviamo macchine con 150 patch arretrate. Così non si va da nessuna parte."

Pubblicato in News

Come condividere file e cartelle con Microsoft OneDrive

 

Con Microsoft OneDrive è possibile condividere in cloud file e cartelle. A partire da Windows 8.1 Microsoft ha integrato questa funzione nel sistema operativo rendendola ancor più facilmente accessibile.

Introduzione

OneDrive è un servizio disponibile da parecchi anni ma il suo utilizzo è sicuramente cresciuto nel momento in cui Microsoft ha integrato di default in Windows 8.1 l'app in grado di gestirne i contenuti. In questo modo le funzionalità di OneDrive sono diventate fruibili dall'utente in modo semplice e senza bisogno del browser. La situazione è ulteriormente migliorata con Windows 10: la versione più recente del sistema operativo permette di accedere a OneDrive direttamente nel File Explorer.

Conservando in OneDrive i vostri file potrete condividerli facilmente con altri utenti: basta inserire un particolare link creato da OneDrive in un messaggio di posta, sui social network, in chat e via dicendo, sempre con il vantaggio di non dover spostare fisicamente il file e di mantenerne il controllo. Vediamo in dettaglio il procedimento.

Da File Explorer accedete a OneDrive e individuate il file o la cartella che volete condividere. Selezionate quindi l'elemento e con un click sul tasto destro del mouse cliccate su "Share a OneDrive Link".

Dopo qualche istante nell'angolo in basso a destra del display comparirà un avviso: il link è stato inserito nella clipboard e potrà quindi essere incollato.

Per concludere l'operazione e inviare il link in un messaggio di posta elettronica è sufficiente aprire il proprio client mail, incollare il link e selezionare il destinatario. Il link consentirà di accedere al file al destinatario ma anche a chiunque ne entri in possesso; per avere un maggior controllo sulla condivisione è necessario utilizzare OneDrive attraverso l'interfaccia web accessibile dal browser.

Condividere file o cartelle da OneDrive.com

Per avere un maggior controllo sui file condivisi attraverso OneDrive.com accedete a OneDrive da File Explorer, individuate l'elemento che volete condividere e con il tasto destro selezionate la voce "More OneDrive sharing options". Ora il sistema apre una pagina del web browser predefinito all'interno della quale sarà possibile inserire uno o più indirizzi email a cui verrà inviato un messaggio con il link.

moreoption

Per ogni destinatario potrete anche definire un ulteriore livello di sicurezza: decidete se il destinatario può solo visualizzare il documento – impostando "Recipients can only view" – oppure se può anche apportare modifiche con l'opzione "Recipients can edit". In quest'ultimo casa sarà necessario accedere al file utilizzando un Account Microsoft valido.

invite people3

L'opzione "Recipients can edit" va usata con cautela, perché con questo permesso può condividere il file anche con terze persone e l'ha creato ne perde il pieno controllo. Un'ulteriore impostazione di sicurezza permette all'utente di garantire l'accesso a un file condiviso solo attraverso un Account Microsoft valido. Per abilitare questa opzione è sufficiente spuntare la voce "Recipients need to sign in with a Microsoft account".

Cliccando sul pulsate Share viene inviato il messaggio ai destinatari e il file o la cartella risulterà condiviso in base alle opzioni selezionate.

Creare un link per la condivisione

Oltre al metodo descritto c'è la possibilità di creare anche da pannello web un linkche potrà poi essere condiviso a piacimento. Il collegamento che ne risulta potrà essere inserito in un messaggio su Facebook, LinkedIn, in una email o in un documento.

Anche per questa opzione è possibile definire un livello di sola lettura – opzione View only – che prevede l'accesso al file, l'eventuale inoltro del link a terze persone e il download del contenuto. L'opzione "Edit" lascia invece piene possibilità di intervento a chi riceve il link: oltre alle modifiche sul contenuto del file questi utenti potranno anche intervenire sulle impostazioni di condivisione.

getlink urlshort

Per la condivisione su social network può essere utile lo strumento "Shorten link" che permette di "risparmiare caratteri" nei post.

Bloccare la condivisione di file e cartelle

In qualsiasi momento è possibile modificare le impostazioni dei propri file condivisi, ma per farlo è necessario accedere a OneDrive attraverso il browser web. Non è quindi possibile intervenire a posteriori sulla condivisione dei file utilizzando File Explorer.

shared spunta

Dalla pagina Onedrive.com e dopo aver effettuato il login con il proprio account Microsoft si può accedere al pannello "Shared" con l'eloenco dei file condivisi con terze persone. Per agire su un singolo elemento è sufficiente mettere un segno di spunta nell'angolo in alto a destra e cliccare poi sul pulsante Share posto nella barra di controllo. Viene così visualizzato un pannello che permette di reimpostare le modalità di condivisione del singolo elemento.

remove link

Se per la condivisione di un file o una cartella era stato creato un link si può eliminarlo con l'apposito pulsante, rendendo così inaccessibili eventuali elementi precedentemente condivisi.

Condividere un file o una cartella con OneDrive è un'operazione decisamente facile: in pochi click si definisce l'elemento e si impostano le modalità di accesso per gli utenti. A questa flessibilità aggiungiamo la disponibilità di app mobile che rendono ancora più flessibile l'utilizzo del servizio. C'è però da prestare attenzione alle impostazioni di condivisione: una gestione poco oculata potrebbe far perdere il controllo di un file o anche di un'intera cartella.

Pubblicato in News
Mercoledì, 11 Maggio 2016 14:09

Microsoft e Adobe, patch e zero-day

Roma - Microsoft ha avviato la distribuzione dei bollettini di sicurezza di maggio 2016, un menù che questo mese comprende ben 18 diversi aggiornamenti indirizzati a 36 vulnerabilità uniche. Il livello di allarme è alto, soprattutto in considerazione del fatto che sono ben due le falle 0-day (già attivamente sfruttate dai criminali e senza update correttivi disponibili) in circolazione.

Il martedì di patch di maggio 2016 è rappresentato per metà da aggiornamenti classificati come "critici", che coinvolgono buona parte dei prodotti software di Microsoft con falle potenzialmente sfruttabili per compromettere il sistema ed eseguire codice malevolo da remoto.
All'appello delle patch di sicurezza critiche non mancano di rispondere Office, gli engine di scripting JScript e VBScript e diverse componenti dei sistemi operativi Windows come Journal, kernel, Media Center e Microsoft Graphics Component. Le altre otto patch "importanti" riguardano bug che vanno dalla distribuzione di informazioni sensibili all'esecuzione di codice malevolo da remoto passando per l'elevazione dei privilegi utente.

Prevedibilmente coinvolti anche i browser Internet Explorer e Microsoft Edge, con Windows 10 a guadagnarsi il suo solito dosaggio di update dedicati con tutti i problemi che gli aggiornamenti automatici del nuovo OS-come-servizio possono comportare.La falla 0-day (CVE-2016-0189)corretta da Microsoft risiede nei succitati engine JScript e VBScript di Windows (MS16-053), e secondo i ricercatori di sicurezza è già stata utilizzata dagli ignoti cyber-criminali che hanno preso di mira i siti Web della Corea del Sud.

Per quanto riguarda la vulnerabilità 0-day individuata da FireEye in Flash Player, poi, Adobe ne ha riconosciuto l'esistenza e la gravità e ha promesso un update in arrivo nei prossimi giorni. In sincrono con l'ex-Patch Tuesday di Microsoft sono invece arrivati aggiornamenti per Acrobat, Reader e ColdFusion pensati per chiudere 95 diverse falle.

Pubblicato in News
Mercoledì, 11 Maggio 2016 14:48

Microsoft: in Italia prolifera il malware

Microsoft: in Italia prolifera il malware

 

Roima - Microsoft ha rilasciato l'ultima edizione del suo Security Intelligence Report (SIR), studio sullo stato della sicurezza informatica che fa riferimento alla seconda parte del 2015. E che purtroppo fotografa un'Italia in prima linea sul fronte delle infezioni dei PC basati su piattaforma Windows.

SIR presenta statistiche generate a partire dai "programmi e servizi" di sicurezza Microsoft presenti sui PC, statistiche che sono in seguito accorpate e suddivise per singolo paese grazie alla geolocalizzazione degli indirizzi IP. La privacy degli utenti è pienamente rispettata, assicurano da Redmond.

Microsoft pone particolare rilevanza su due dati specifici, vale a dire la percentuale di computer che è venuta in contatto con un qualche esemplare di codice malevolo ("encounter rate") e il numero di PC ripuliti per ogni 1.000 sistemi grazie al tool gratuito Microsoft Software Removal Tool/MSRT ("computers cleaned per mille" o CCM). In entrambi i casi, laversione italiana del rapporto SIR presenta dati rivelatori: il numero di PC infetti nel quarto trimestre del 2015 è stato del 22,3 per cento, una percentuale alta in confronto al 20,8 per cento delle infezioni mondiali; in Italia i sistemi ripuliti (CCM) con MSRT sono 21,1 su 1.000, contro un CCM di 16,9 a livello mondiale.

Dati Italia e globali

 

I trend italiani - sia sul fronte delle infezioni che delle disinfestazioni - sono in crescita come quelli mondiali, mentre per quanto riguarda la tipologia di codice malevolo più diffusa nel quarto trimestre vincono i trojan (6,1 per cento) seguiti da "downloader e dropper", exploit, worm e via elencando.

La famiglia di malware più diffusa in Italia è "JS/Axpergle", vale a dire l'exploit kit Angler usato da cyber-criminali e script kiddie per automatizzare l'identificazione delle falle da sfruttare per infettare il PC - tradizionalmente tramite browser. Angler include anche un exploit per CVE-2010-2568, falla nella gestione dei collegamenti da Explorer originariamente sfruttata dalla "cyber-arma" Stuxnet e tuttora uno dei principali vettori di attacco a livello mondialedopo ben sei anni dalla sua comparsa.

Pubblicato in News
Mercoledì, 11 Maggio 2016 14:52

Sicurezza, il collezionista di password

Roma - È stato ribattezzato come uno dei più grandi furti di credenziali di questi ultimi anni. Oltre 270 milioni di account email sono potenzialmente a rischio. I dati pare fossero in vendita per l'irrisoria e simbolica somma di 50 rubli, al cambio odierno poco più di 0,65 euro. Forse si tratta solo di un atto dimostrativo, per distinguersi nel sottobosco cracker del deep web, universo occulto ai più in cui far crescere la propria fama di eroe negativo. Se l'azione passerà probabilmente inosservata agli utenti, almeno fino a quando non subiranno accessi non autorizzati, la Rete trema. Perché simili azioni mettono in luce criticità sistemiche e punti deboli di infrastrutture di importanza planetaria, e delle abitudini degli utenti che vi si appoggiano.

intuire tutto, i ricercatori di Hold Security, azienda statunitensespecializzata in sicurezza informatica, che lo hanno riferito in esclusiva all'agenzia di stampa britannica Reuters. Non nuova a questo genere di intercettazioni, la security company fondata da Alex Holden anni fa si è rivelata indispensabile nella scoperta di crimini informatici di natura similare perpetrati ai danni di Adobe SystemsJPMorgan e Target.

A subire i danni più ingenti, in questa occasione, sono state Google, Microsoft, Yahoo e Mail.ru. Ed è proprio quest'ultima ad aver pagato il prezzo più alto di tutte, con più di 55 milioni di account trafugati. Più contenuti, ma non meno importanti, i numeri del gigante di Mountain View, circa 24 milioni, e quelli del colosso di Redmond, stimati in 33 milioni. Per Yahoo, invece, quota 40 milioni. Non è dato sapere molto riguardo alla provenienza dei dati: Hold Security, prima di terminare le proprie verifiche, riferisce che molti dei dati potrebbero essere stati attinti a dump precedenti e che molti degli account sono replicati, associati a diverse password.Ad ogni modo, fortunatamente per tutti, Holden e i suoi collaboratori sono riusciti a negoziare senza alcuna transazione di denaro e a recuperare il malloppo digitale barattandolo con un po' di visibilità per l'autore dell'operazione, forse giovanissimo. C'è da sperare che altri non vengano in possesso dello stesso pacchetto di dati e che chi lo ha trafugato non ne faccia un utilizzo improprio, accontentandosi semplicemente della soddisfazione di essere riuscito nell'impresa. 

Ma come sarebbe potuta andare se non ci si fosse accorti di nulla? Secondo gli analisti, davvero molto male. Non era impensabile una reazione a catena, dovuta al fatto che accedere clandestinamente ai dati email di una persona equivale a mettere le mani su tutta la sua rete di contatti. Le conseguenze, dunque, sarebbero potute essere disastrose. Tanto più se consideriamo che sono moltissimi gli utenti che hanno la cattiva e insidiosa abitudine di utilizzare le medesime credenziali per accedere a più servizi e di non modificarle mai.

Forse questa volta è andata bene. Ma quali prospettive per il futuro? Le grandi multinazionali della comunicazione elettronica sono avvisate e si sono mobilitate. Il sistema è debole e presenta evidentemente numerose criticità e punti di cedimento, primo fra tutti l'uso spesso poco consapevole che gli utenti fanno dei propri dati di login.

Pubblicato in News

 

tpu 2

 

Si chiama Tensor Processing Unit (TPU) il chip creato da Google per lavorare specificatamente con algoritmi di machine learning. In particolare è stato pensato per funzionare al meglio con TensorFlow, una libreria software open source.

Il machine learning, ossia la possibilità di far apprendere e progredire una macchina al fine di un'interazione più rapida e umana, è al centro del lavoro di più di 100 teamin casa Google e viene applicato a servizi come Street View, la ricerca vocale e le smart reply alle email.

Questa TPU serve per gestire al meglio con questi algoritmi, laddove un chip generico avrebbe più difficoltà. Si tratta infatti di un ASIC (application specific integrated circuit) personalizzato.

"Stiamo facendo lavorare le TPU nei nostri datacenter da oltre un anno e abbiamo riscontrato che offrono prestazioni per watt di un ordine di grandezza superioreper l'apprendimento automatico. Questo è più o meno equivalente ad accelerare la tecnologia di circa sette anni nel futuro (tre generazioni della Legge di Moore)", spiegano in casa Google.

Una TPU è più tollerante con a precisione di calcolo ridotta, il che significa che richiede meno transistor per funzionare. "Per questo possiamo spremere più operazioni al secondo dal silicio, usare modelli di machine learning più sofisticati e potenti, e applicare questi modelli più rapidamente, così gli utenti ottengono risultati più intelligenti, più in fretta", aggiungono i tecnici della casa di Mountain View.Come mostrano le immagini, una scheda dotata di TPU occupa le dimensioni di uno slot per hard disk nei rack dei datacenter. "È un esempio di quanto rapidamente trasformiamo le ricerche in cose pratiche - dal primo chip di test, il team è riuscito ad avere applicazioni pronte in 22 giorni". Google fa sapere, infine, che le TPU sono anche il cuore di AlphaGo, l'intelligenza artificiale che ha battuto il campione mondiale di Go Lee Sedol.

Pubblicato in News
Pagina 1 di 78
Copyright © Xion Informatica S.n.c. - P. IVA 06455280963
Powered by Rubedo Marketing & Web Solution
Security by Ermeteus