Assistenza Informatica & Sistemistica - Xion Informatica Milano
Assistenza Informatica & Sistemistica - Xion Informatica Milano

Aruba e Acronis, Partner per offrire il nuovo servizio Cloud Bare Metal Backup

 

Il servizio, destinato ai clienti Private Cloud e basato su tecnologia Acronis, permette agli utenti di sottoporre a backup le vApp e le VM interessate attraverso un intuitivo pannello web   

Aruba Acronis annunciano la disponibilità del nuovo servizio Aruba Cloud Bare Metal Backup, che consente alle aziende di effettuare backup completi delle proprie macchine virtuali Private Cloud tramite un pannello web semplice e intuitivo. Il nuovo servizio di backup è basato su immagini remotizzate, tecnologia leader di Acronis.

Il servizio Cloud Bare Metal Backup di Aruba lavora a livello dell’hypervisor di virtualizzazione, evitando l’installazione di agenti di backup a bordo delle singole Virtual Machine da proteggere. Il servizio Cloud Bare Metal Backup può essere utilizzato in modo complementare con il servizio Cloud Backup di Aruba, insieme al quale permette di ottenere una protezione totale delle Virtual Machine, fisica, virtuale e applicativa.

Il nuovo servizio backup è basato su AnyData Engine di Acronis ed ha lo scopo di rendere più facile il backup delle vApp e delle virtual machine (VM) per le aziende tramite un pannello web semplice che permette agli utenti business un controllo completo, che comprende:

  • impostazione della periodicità e della persistenza preferita
  • pianificazione del ripristino, sia dell’intera macchina sottoposta a backup che dei singoli file in essa contenuti
  • riconfigurazione di virtual machine ripristinate, modificandone parametri come rete, host name, CPU e memoria, o decidendo di clonarle su di una nuova vApp.

Il servizio viene erogato con la granularità della singola Virtual Machine e comprende 200 GB di spazio per ciascuna macchina. La tecnologia di backup si integra direttamente con l’hypervisor del servizio Private Cloud e con i meccanismi di protezione offerti da VMware per garantire consistenza e prestazioni. E’ presente anche l’integrazione nativa con VSS di Microsoft (attraverso i VMware tool) per assicurare la consistenza applicativa.

Con il nuovo servizio, Aruba mette a disposizione dei propri clienti Private Cloud due differenti canali di assistenza: sia telefonica che via Ticketing System.

“Cloud Bare Metal Backup è lo strumento ideale per chi necessita di una sicurezza totale – ha commentato Stefano Cecconi, Amministratore Delegato di Aruba S.p.A. “Il servizio agisce al di fuori della macchina a livello di hypervisor e ha quindi visibilità della macchina in blocco. L’ utilizzo del servizio di Cloud Backup congiunto a quello di Cloud Bare Metal Backup basato su Acronis offre visibilità a livello applicativo di ciò che gira nella VM e consente quindi una protezione totale.”

“La nostra nuova offerta presentata con Aruba fornisce un potente backup a multi livelli, multi-tenant e self-service oltre che una soluzione di disaster recovery (DR), permettendo ai fornitori di servizi cloud di stabilire servizi BaaS ( Backup as a Service) leader del settore per i propri utenti”, ha dichiarato Mauro Papini, Country Manager di Acronis Italia. – Siamo onorati di collaborare con un leader come  Aruba per fornire ai clienti una soluzione backup completa.”

Pubblicato in News

Microsoft e Red Hat definiscono un nuovo standard per il Cloud enterprise

 

La nuova piattaforma per l’impresa consente ai client di scegliere fra Microsoft Azure e .NET

Microsoft e Red Hat hanno annunciato un accordo che aiuterà i clienti di entrambe le aziende ad abbracciare il cloud computing grazie a una maggiore scelta e flessibilità nell’installare le soluzioni Red Hat su Microsoft Azure. Microsoft offre infatti Red Hat Enterprise Linux come scelta preferenziale per i carichi di lavoro enterprise Linux in ambiente Azure a. Inoltre, Microsoft e Red Hat stanno collaborando per soddisfare le più comuni esigenze di imprese, software vendor e sviluppatori in termini di costruzione, installazione e gestione delle applicazioni su software Red Hat in ambienti cloud pubblici e privati.

Tra i termini della partnership sono previsti:

Soluzioni Red Hat disponibili in forma nativa ai clienti Microsoft Azure. Nel corso delle prossime settimane, Microsoft Azure diventerà un Red Hat Certified Cloud and Service Provider e consentirà ai clienti di far girare le proprie applicazioni e carichi di lavoro Red Hat Enterprise Linux in ambiente Microsoft Azure. Gli utenti di Red Hat Cloud Access potranno portare le immagini delle loro macchine virtuali su Microsoft Azure. I clienti di Microsoft Azure potranno inoltre godere appieno del valore della piattaforma applicativa di Red Hat, compresi Red Hat JBoss Enterprise Application Platform, Red Hat JBoss Web Server, Red Hat Gluster Storage e Red Hat OpenShift, l’offerta platform-as-a-service di Red Hat. Nel corso dei prossimi mesi, Microsoft e Red Hat prevedono di fornire le soluzioni “a consumo” Red Hat On-Demand e le immagini Red Hat Enterprise Linux nel Marketplace di Azure, supportate da Red Hat.

·         Supporto enterprise integrato per ambienti ibridi. I clienti potranno usufruire di un supporto inter-piattaforma e inter-aziendale integrato fra Microsoft e Red Hat, a differenza di altre partnership nel cloud pubblico. Collocando team di supporto di entrambe le aziende negli stessi spazi, l’esperienza sarà semplice ed immediata, a velocità di cloud.

 Gestione unificata dei carichi di lavoro su installazioni hybrid Cloud. Red Hat CloudForm sarà interoperabile con Microsoft Azure e Microsoft System Center Virtual Machine Manager, dando ai clienti di Red Hat CloudForms la possibilità di gestire Red Hat Enterprise Linux sia su Hyper-V sia su Microsoft Azure. Il supporto di Red Hat CloudForms per la gestione dei carichi di lavoro su Azure è previsto per i prossimi mesi, ed estenderà le attuali funzionalità di System Center per la gestione di Red Hat Enterprise Linux.

 

 Collaborazione su .NET per funzionalità di sviluppo applicazioni di nuova generazione. Partendo dall’anteprima di .NET su Linux annunciata da Microsoft lo scorso aprile, gli sviluppatori potranno accedere alle tecnologie .NET da diverse soluzioni Red Hat tra cui Red Hat OpenShift e Red Hat Enterprise Linux, supportata congiuntamente da Microsoft e Red Hat. Red Hat Enterprise Linux sarà l’ambiente operativo primario di sviluppo e di riferimento per .NET Core su Linux.

“Questa partnership offre importanti prospettive per ISV e sviluppatori”, ha commentato Scott Guthrie, Executive Vice President della divisione Cloud and Enterprise di Microsoft. “Ci permette inoltre di estendere il nostro impegno verso una flessibilità e una possibilità di scelta senza paragoni negli ambienti Cloud di oggi, il tutto nel rispetto dei rigorosi requisiti di sicurezza e scalabilità che le aziende esigono”.

“Il datacenter è eterogeneo e il cloud è ibrido”, ha dichiarato Paul Cormier, Presidente della divisione Products and Technologies di Red Hat. “Con l’unione tra Red Hat e il leader nel campo dei carichi di lavoro nell’impresa, i veri vincitori oggi sono i nostri clienti. Assieme, infatti, offriamo il più completo accordo di supporto per tecnologie miste a vantaggio dei clienti”.

Pubblicato in News

produzione wafer chip

 

La taiwanese TSMC ha affermato di aver avviato i primi lavori esplorativi per la produzione a 5 nanometri. Prima toccherà tuttavia ai 10 e ai 7 nanometri.

TSMC, il più grande produttore al mondo di microchip per conto terzi, ha avviato i lavori affinché in un futuro non troppo lontano sia possibile produrre chip con processo a 5 nanometri. Mark Liu, co-CEO dell'azienda, ha fatto alcuni commenti in merito durante una conferenza all'inizio di questo mese.

Al momento TSMC non ha comunicato una roadmap ufficiale, e sta ancora valutando se usare la litografia extreme ultraviolet (EUV), un metodo di produzione differente e più avanzato di quello attuale, ma anche ha ancora qualche neo di troppo, dalla velocità di produzione ai sistemi ancora immaturi, cioè non ancora in grado di fornire l'affidabilità richiesta.

Non è chiaro quindi qualche sarà la soluzione adottata da TSMC per la produzione a 5 nanometri, anche se l'industria vede con favore una combinazione tra la tecnologia a immersione 193i di Nikon e l'EUV sostenuta da ASML Holding e altri.

"L'estensione della tecnologia a immersione 193i ai 7 nanometri e oltre è possibile, tuttavia richiederebbe un patterning ottuplo e altri passaggi che aumenterebbero i costi di produzione. Potrebbe rappresentare un freno per i produttori di chip che hanno intenzione di adottare processi inferiori, rallentando la crescita dell'industria", sottolinea il sito EETimes.

A luglio IBM Research ha realizzato un prototipo di chip funzionante a 7 nanometrisfruttando la litografia EUV e transistor con un canale in silicio-germanio (SiGe). TSMC, dal canto suo, ha prodotto la prima SRAM funzionante a 7 nanometri a ottobre e si aspetta di avviare la produzione dei primi chip nel 2017. L'azienda, infatti, dovrebbe eseguire il tape out dei primi progetti a 10 nanometri all'inizio del 2016.

Pubblicato in News

 

 skylake

Sembra proprio che presto sarà possibile aumentare il BLCK delle CPU Intel Skylake non K, ossia con moltiplicatore bloccato. Una bella svolta per chi sta pensando di rifarsi il PC.

Grandi notizie per gli appassionati di overclock e non: a breve sarà possibile overcloccare in modo piuttosto marcato le CPU Skylake con moltiplicatore bloccato, solitamente avare di sorprese sotto questo punto di vista. Espressa la sintesi, è bene fare qualche passo indietro per capire la genesi di questa svolta inaspettata e le varie sfaccettature.

Da qualche settimana, come i più appassionati di overclock sapranno, l'overclocker Dhenzjhen è salito alla ribalta delle cronache per aver portato un Core i3 6320 a 4955 MHz grazie a un BCLK di 127 MHz su una scheda madre SuperMicro C7H170-M modificata.

Un intervento che, secondo quanto riportato da Anandtech, sarà esteso ad altre motherboard ma senza bisogno di un intervento hardware, bensì grazie a un semplice aggiornamento firmware. Una svolta davvero interessante, che non crediamo faccia molto contenta Intel. Le ultime generazioni dei suoi processori, salvo alcuni modelli "K", hanno il moltiplicatore bloccato e il BCLK non è modificabile senza incappare in problemi.

La frequenza della CPU è infatti determinata dalla frequenza base (o base clock, BCLK, solitamente di 100 MHz) e dal moltiplicatore. Solitamente il base clock è sempre stato liberamente modificabile, ma dalle CPU Sandy Bridge a oggi era legato ad altre parti del sistema, come la frequenza del PCIe o l'archiviazione, il che significava che qualsiasi overclock oltre i 103-105 MHz portava a problemi come la perdita di dati e la degradazione del segnale.

L'architettura Skylake cambia tutto questo in quanto chipset e PCIe hanno il proprio dominio di frequenza, mentre la frequenza base influenza solo la CPU (e le sue varie componenti interne), la GPU integrata e la DRAM. Nonostante ciò, l'overclock degli ultimi processori "non K" sembrava rimanere, almeno finora, piuttosto limitato. L'overclocker Dhenzjhen è tuttavia riuscito ad andare oltre le aspettative (+27% sotto azoto liquido). È plausibile che con un raffreddamento ad aria si arrivi a un incremento prestazionale tra il 10 e il 15%.

L'aspetto interessante è che, a quanto pare, quanto raggiunto dall'overclocker sulla motherboard di Supermicro sarà replicabile via software. Almeno è quanto ha confidato ad Anandtech nientemeno che ASRock, assicurando che gran parte delle sue schede madre riceverà un aggiornamento del BIOS che "sbloccherà" l'overclock. Ciò avverà "molto presto".

L'azienda taiwanese ha inviato al sito alcune immagini in cui su una motherboard Z170 OC Formula un Pentium G4400, un Core i3-6300T e un Core i5-6600 hanno visto salire il proprio base clock di oltre il 20% con vette fino al 30%. Il tutto con raffreddamento ad aria.

Al momento l'azienda non ha spiegato qual è il trucco dietro a tutto questo, ma sembra che l'operazione disabiliti automaticamente la GPU integrata, ma solo se il driver di Intel è installato. Qualcosa di cui tenere conto.

A riprova che il tutto non non dovrebbe rimanere limitato a Supermicro e ASRock c'è un overclock a 152,8 MHz del BCLK di un Core i3-6300 raggiunto dall'overclocker elmor, che ha portato la CPU a 5,8 GHz su una Maximus VIII Gene di Asus. Anche in questo caso sotto azoto liquido.

Quanto riportato da Anantech è confermato da Techspot, che ha svolto dei test sul campo con una motherboard di ASRock. Come scritto poco sopra, rimane da capire la posizione di Intel. Se gli utenti potranno acquistare Core i3 o Core i5 "non K" con la speranza di un overclock del 10-15%, le vendite di CPU K potrebbero risentirne.

Pubblicato in News

 facebook big sur 01

 Si chiama Big Sur il nuovo sistema hardware di Facebook che, grazie a otto GPU, punta a istruire reti neurali per compiti di machine learning e lo sviluppo d'intelligenze artificiali. La buona notizia è che sarà reso del tutto open source.

Negli ultimi anni i ricercatori di tutto il mondo e le aziende tecnologiche hanno compiuto passi da gigante nell'ambito dell'intelligenza artificiale e più precisamente in una delle sue aree, il machine learning (apprendimento automatico), dove dati e algoritmi per il riconoscimento di modelli complessi permettono ai computer di prendere decisioni e svolgere compiti.

Il boom di quest'ultimo periodo è legato a due trend: l'ampia disponibilità di dati di ricerca pubblici e l'arrivo sulla scena delle GPU, capaci di macinare quantità enormi di informazioni in minor tempo rispetto ai tradizionali microprocessori.

Tra i tanti che stanno lavorando in questo ambito troviamo Facebook: inevitabile per chi possiede miliardi di informazioni nuove ogni giorno che possono essere analizzate e combinate per creare nuove esperienze, rispondere a problemi e molto altro ancora.

"Abbiamo sviluppato software che possono leggere storie, rispondere a domande, giocare e imparare cose tramite l'osservazione di alcuni esempi. Abbiamo tuttavia realizzato che per prendere davvero di petto questi problemi avremmo dovuto progettare i nostri sistemi", spiegano gli ingegneri Kevin Lee e Serkan Piantino. "Oggi sveliamo il nostro nuovo sistema basato su GPU per istruire reti neurali, il suo nome in codice è Big Sur".

Big Sur è l'hardware "open rack compatibile" più recente di Facebook, pensato per lavorare nello sviluppo di intelligenze artificiali su larga scala. A bordo che sono benotto schede acceleratrici Tesla M40 di Nvidia. Ogni scheda offre una GPU GM200 con 3072 CUDA core affiancati da 12 GB di memoria GDDR5, per una potenza di picco a singola precisione di 7 TFLOPs, un bandwidth di 288 GB/s e TDP di 250 watt.

"Big Sur è il doppio più veloce della nostra precedente generazione, il che significa che possiamo istruire due volte più rapidamente ed esplorare reti il doppio più grandi. Distribuire la formazione tra otto GPU ci permette di scalare la dimensione e la velocità delle nostre reti di un altro fattore pari a due", scrivono i due ingegneri dell'azienda.

Lee e Piantino aggiungono che Big Sur è molto più versatile ed efficiente perché pur usando un raffreddamento speciale e altre soluzioni uniche, sono riusciti a ottimizzare il nuovo sistema per una maggiore efficienza energetica e il funzionamento a temperature inferiori, tanto che è raffreddato ad aria.

"Abbiamo rimosso i componenti che non venivano usati molto, mentre i componenti che si rompevano di frequente - come gli hard disk e le DIMM - possono ora essere rimossi e rimpiazzati in pochi secondi. […] Persino la motherboard può essere rimossa in pochi minuti, mentre la piattaforma hardware originale richiedeva oltre un'ora. Big Sur è quasi interamente smontabile senza l'uso di cacciavite, a eccezione del dissipatore della CPU".

La buona notizia per l'intero settore della ricerca è che Big Sur sarà reso "open source" e sarà sottoposto all'Open Compute Project (OCP). Facebook, in questo modo, spera che altri possano realizzare sistemi simili e persino migliori al fine di compiere passi avanti nel settore dell'intelligenza artificiale in tempi più rapidi.

Pubblicato in News

 radeon software

Piccolo aggiornamento driver per AMD. I Radeon Software Crimson 15.2 WHQL sono dei Crimson 15.11.1 Beta con certificazione Microsoft e due bug risolti in più.AMD ha pubblicato un piccolo aggiornamento dei driver grafici Radeon Software Crimson Edition. La build 15.12 viene definita come "la versione WHQL dei Crimson 15.11.1 Beta", ossia non ci sono grandi cambiamenti, se non per la risoluzione di due ulteriori problemi.

Il primo è che il controllo sulla presenza di nuove versioni di driver integrato in Radeon Settings non funzionava a dovere. Il secondo è che il computer consumava maggiormente in idle in Windows 7 con Radeon Settings in funzione.

I driver contengono anche i bug già risolti in precedenza, ovviamente, mentre non si fa menzione di un problema di underclocking ravvisato da alcuni utenti e sul quale AMD ha dichiarato di essere impegnata nel trovare una soluzione.La certificazione WHQL (Windows Hardware Quality Labs) indica che i driver sono stati provati da Microsoft per la compatibilità sui propri sistemi operativi. Non è un aspetto decisivo ai fini della bontà di un driver, ma se non altro è l'assicurazione di un controllo in più sul software che poi viene pubblicato.

Pubblicato in News

 Sapphire Radeon R9 Fury Custom PCB Nitro X

La nuova R9 Fury Nitro di Sapphire prenderà il posto della R9 Fury Tri-X già in commercio. Offrirà una GPU leggermente overcloccata e soprattutto un PCB totalmente rinnovato.

Arriverà sul mercato a gennaio la Sapphire R9 Fury Nitro, una scheda video totalmente progettata dal partner di AMD, anche per quanto concerne il PCB.

Le attuali soluzioni R9 Fury, benché overcloccate e con un dissipatore proprietario, sono tutte accomunate da un circuito stampato di riferimento. La Nitro, che andrà a prendere il posto dell'attuale Sapphire R9 Fury Tri-X, si differenzierà anche in questo aspetto. Non si tratta però dell'unica novità.Informazioni e immagini provengono dal sito tedesco PCGamesHardware, il quale ha avuto tutti i dettagli di prima mano, direttamente da Sapphire. La GPU Fiji di questa scheda video avrà una frequenza massima di 1050 MHz mentre la memoria HBM rimarrà a 500 MHz. Il prodotto misurerà 307 x 125 x 45 mm rispetto ai 300 x 110 x 40 mm del modello Tri-X.

La nuova soluzione sarà quindi leggermente più alta, andando a occupare due slot e mezzo. Esteticamente le schede non appaiono troppo diverse, anche se nella parte del backplate si nota il PCB più lungo della nuova soluzione, coperto per intero. La scheda è dotata di due connettori a 8 pin e Sapphire raccomanda un alimentatore da 750 watt per far funzionare senza problemi un sistema con questa proposta a bordo. 

Al momento non sono chiare le differenze a livello di componentistica, ma è plausibile che Sapphire abbia usato soluzioni di maggiore qualità, a iniziare dai condensatori, e magari implementato un maggior numero di fasi, a tutto vantaggio di un margine di overclock superiore rispetto alla proposta Tri-X.Interessante anche la parte posteriore di questa Sapphire R9 Fury Nitro: laddove la soluzione precedente aveva tre DisplayPort e una HDMI, questa proposta offre un ulteriore connettore DVI-D, limitando tuttavia lo spazio riservato alle feritoie. Quanto al prezzo Sapphire ha affermato che la scheda avrà il medesimo listino della Tri-X, quindi la Nitro si posizionerà (in Italia) tra 570 a 625 euro (attuale forbice di prezzo media della Tri-X).

Pubblicato in News

 amd industryproblem 1

AMD ha un grande progetto: dare agli sviluppatori di giochi strumenti open source, effetti, librerie e SDK. L'azienda sta anche lavorando sui driver Linux che sono parte del suo piano per ridare vita allo stagnante mercato HPC.

La scorsa settimana AMD ha dato il via a un lento processo di divulgazione di informazioni che ci porterà al debutto della sua prossima architettura grafica. In "GPU AMD del 2016: HDR, FreeSync tramite HDMI e nuovi standard" abbiamo illustrato i piani dell'azienda per implementare il supporto a DisplayPort 1.3 e HDMI 2.0a, espandere la disponibilità di FreeSync tramite l'HDMI e il modo in cui intende riprodurre contenuti HDR tramite la sua display pipeline. Quanto vi spiegheremo oggi è meno interessante per gli appassionati di PC, ma probabilmente è piùimportante per le prospettive a lungo termine di AMD, in quanto riguarda il modo in cui gli sviluppatori interagiscono con l'hardware.Sia AMD che Nvidia affermano di avere il polso dello sviluppo software e attirano regolarmente i membri della comunità disposti a sostenere le rispettive filosofie. Ne consegue quindi che le due aziende tendono a propagandare un modus operandi piuttosto che un altro. Nvidia ama puntare sui vantaggi di un middleware pronto da integrare, ottimizzato per il suo hardware ma di natura proprietaria, spesso causando problemi alla concorrenza. Al contrario AMD tiene alta la bandiera dell'open source, promuovendo l'accessibilità e i benefici della collaborazione. Secondo l'azienda è quello che vogliono maggiormente gli sviluppatori.

A detta di Nicolas Thibieroz, senior manager dell'ISV engineering team del Radeon Technology Group, il porting dei giochi tra console e PC è una delle sfide maggiori per gli sviluppatori. Così, per facilitare lo sviluppo cross-platform, AMD ha deciso di risolvere alcuni dei problemi emersi.

Nicolas ha identificato due problemi principali che frenano i progressi: accesso limitato alla GPU stessa ed effetti, strumenti, librerie e SDK chiusi. Nvidia si è occupata del primo aspetto con la sua NVAPI, che trascende lo scopo di DirectX e OpenGL per dare un controllo più diretto sul sottosistema grafico. Il secondo punto citato da AMD è invece incarnato dal programma Nvidia GameWorks.

La risposta di AMD si chiama GPUOpen ed è, in un certo senso, una continuazione del lavoro svolto con l'API Mantle. Lanciando una frecciata a Nvidia, Thibieroz ha affermato che GPUOpen include effettivi visivi, utility driver, strumenti per la risoluzione di problemi, librerie e SDK completamente open source. L'idea è che gli sviluppatori abbiano accesso a livello di codice agli effetti che usano, alla possibilità di fare modifiche e possano condividere il loro lavoro. AMD, implicitamente, beneficerà dei miglioramenti fatti nel corso del tempo.

GPUOpen sarà accessibile da un portale online con collegamenti a contenuti open source, post scritti dallo staff di AMD e da ospiti e aggiornamenti industriali. Tutto il codice sarà ospitato su GitHub, con tutti i benefici legati alla funzione collaborativa del sito.

 Quando GPUOpen arriverò, questo gennaio, offrirà l'accesso a TressFX 3.0, GeometryFX, AOFX, ShadowFX, una manciata di strumenti, LiquidVR SDK, code sample in DirectX 11 e 12, strumenti legati al calcolo e diversi altri SDK. Tutto il software disponibile tramite GPUOpen sarà fornito senza restrizione sotto MIT License.

Lo scorso novembre AMD ha annunciato la Boltzmann Initiative, che include un driver Linux headless a 64 bit pensato per il mercato HPC, un compilatore per il calcolo eterogeneo destinato allo stesso settore e un insieme di strumenti per convertire il codice CUDA in portable C++.

AMD ha riconosciuto che in passato prendeva il suo driver grafico e lo "rimpacchettava" per l'uso nell'ambito server HPC, creando una soluzione di calcolo funzionante ma non interamente ottimizzata. Ora sta riprogettando il driver, togliendo enfasi dalla pipeline grafica e occupandosi maggiormente della latenza.

Allo stesso tempo il driver Boltzmann attiva un superset dello standard HSA ufficiale. Gran parte del colloquio che abbiamo avuto con AMD sul calcolo ha riguardato le sue APU. L'azienda, tuttavia, è più concentrata sull'abilitazione di HSA sulle schede video dedicate (specialmente le FirePro), un must se vuole guadagnare terreno sull'ecosistema di Nvidia.

È importante che AMD ottimizzi per le sue GPU dedicate per il calcolo, ma senza il supporto dagli sviluppatori l'azienda sa che non può fare breccia. OpenCL è notoriamente complicato, perciò AMD voleva uno strumento più accessibile per programmare i suoi processori grafici e centrali.

L'Heterogeneous Compute Compiler open source si affida a C++, quindi è di livello più alto rispetto allo scrivere per OpenCL. E con l'evoluzione di C++, l'HCC incorporerà gli ultimi standard. Contiene già una prima implementazione di una caratteristica chiamata Parallel STL per parallelizzare l'esecuzione tra le risorse disponibili.

Infine, AMD renderà possibile la conversione del codice CUDA in portable C++ tramite HIP, ossia Heterogeneous-compute Interface for Portability. Le potenziali implicazioni di HIP sono enorme, in quanto gli sviluppatori che hanno già familiarità con CUDA possono estendere il loro lavoro all'hardware AMD in modo piuttosto indolore. L'approccio aperto di AMD offre una via d'uscita dall'ecosistema proprietario di Nvidia, anche se l'azienda sta pensando di concedere in licenza il proprio software.

Abbiamo chiesto all'AMD senior fellow Ben Sander se vi siano implicazioni legali nel facilitare la traduzione del codice CUDA e ci ha assicurato che le capacità HIP sono basate su documentazione pubblicamente disponibile; l'API CUDA non è implementata in alcun modo. Non c'è nemmeno una perdita prestazionale anche se qualsiasi specifica ottimizzazione per registri o cache dell'architettura Nvidia andrà rivisitata.Tutto questo è stato introdotto all'SC15 di Austin, Texas. Al recente technology summit di Sonoma AMD è entrata in maggiore dettaglio sullo stack software, incluso quello che chiama Lightning, il precedentemente descritto driver Boltzmann e il driver kernel AMDGPU (evidenziato in giallo nello schema sopra). Il compilatore Lightning è responsabile per la generazione del codice della GPU fino ad arrivare a ISA - una manna, secondo AMD, rispetto alle soluzioni che passano attraverso linguaggi intermedi.

Il compilatore e i driver hanno in comune l'accessibilità open source. Per illustrare la potenza collaborativa AMD ha mostrato un esempio di un errore in NVCC di Nvidia e nel suo HCC. Un refuso ha impedito al code snippet di essere compilato. NVCC ha identificato il problema lasciando allo sviluppatore il compito di capire cos'era andato storto. Poiché HCC usa il compilatore front-end open source Clang, che ha il suo controllo ortografico, è andanto un passo oltre suggerendo come risolvere il problema.

È chiaro che molti sviluppatori potrebbero beneficiare della natura open source di questi strumenti. Per estensione le applicazioni scritte potranno essere ottimizzate meglio, portando a migliori prestazioni. C'è anche un elemento, la trasparenza, che secondo AMD è importante per determinati clienti nel settore HPC. L'accesso al codice può essere utile per verificare la sicurezza e risolvere bug.

AMDGPU: ripensare l'approccio di AMD a Linux

 

AMD ha anche discusso i cambiamenti in corso nel suo approccio a Linux, dai mercati client ed embedded fino a quello HPC. La base della sua strategia è AMDGPU, un driver kernel base che supporta tutte le GPU/APU 2015 di AMD. Uno dei suoi scopi, secondo il senior fellow Christopher Smith, è offrire un supporto più ampio alle distribuzioni Linux. Una versione totalmente validata del driver è già integrata in Ubuntu e Fedora. AMD sta anche lavorando per accelerare l'accesso ai prodotti e alle caratteristiche affinché al debutto del nuovo hardware questo sia già supportato. È qualcosa che l'azienda dice sia particolarmente difficile quando si lavora con uno stack Linux proprietario

Attualmente AMD offre un driver Radeon open source e un driver Catalyst closed source, entrambi basati su driver kernel-mode separati. Smith ha affermato che AMDGPU consolida i loro vantaggi, permettendo driver user-mode closed e open source che vi girino al di sopra. Il grafico sopra illustra come apparirà il tutto rispetto al modello precedente di AMD. All'estrema sinistra avete l'opzione "tutta aperta" con una base AMDGPU, driver user-mode open source costruito in Mesa, e il kernel e runtime HSA, disponibile upstream come un package integrato alle distribuzioni. La versione rivolta a professionisti e giocatori parte con la stessa base AMDGPU, incorpora UMD sia closed che open source e offrirà probabilmente anche driver open OpenGL e Vulkan.

C'è ancora molto da scoprire

Siamo abbastanza certi che la prossima infornata di notizie da AMD ci avvicinerà a una migliore comprensione di quello che sarà il nuovo hardware. Per ora, i riflettori sono puntati su GPUOpen, l'iniziativa dell'azienda per accelerare lo sviluppo cross-platform dei giochi, a cui si aggiunge un nuovo focus sulla propria strategia Linux. L'iniziativa dovrebbe aiutare AMD a sfruttare meglio il proprio hardware e puntellare altri angoli del suo portafoglio che necessitano di rinforzi. La cosa interessante, naturalmente, è che un investimento iniziale in open source paga il dividendo più tardi, quando la comunità è più coinvolta. Serviranno mesi prima di iniziare a vedere i prodotti degli annunci di oggi? Anni? Come tante iniziative in passato dovremo aspettare per valutare l'impatto di GPUOpen

Pubblicato in News

Microsoft e sicurezza informatica: in Italia è un disastro

 

La sicurezza informatica è un settore ormai cruciale nello sviluppo delle aziende e della Pubblica Amministrazione, ma ancora manca la giusta sensibilità per comprendere i rischi enormi di una arretratezza senza confini. Ne abbiamo parlato con Carlo Mauceli, CTO di Microsoft, per capire di cosa ha bisogno il nostro Paese per uscire da questa situazione.

L'informatica è ormai entrata prepotentemente nei processi produttivi di qualsiasi azienda: tantissimo dipende ormai dai computer sia nel settore privato sia in quello pubblico.

Dati sensibili, documenti, atti, pagamenti transitano ogni giorno sulla rete aziendale, come fosse la linfa vitale che fa funzionare processi e produzione.

Ma cosa accade se il fluire di questa linfa fosse interrotto? Tutti sono concordi: sarebbe un disastro. Cosa si fa, quindi, per proteggerlo? Quasi niente nella maggior parte dei casi e non abbastanza nel resto, con pochissime eccezioni.

Siamo andati a trovare Mauro Mauceli, CTO di Microsoft Italia, nel suo ufficio proprio per fare due chiacchiere con chi è a contatto ogni giorno con aziende ed enti che devono proteggersi contro le minacce informatiche e la sensazione è che la maggior parte di loro sembra non aver idea di come fare.

"In Italia" – ci dice Mauceli – "il panorama della sicurezza delle informazioni è davvero grigio, tanto nella Pubblica Amministrazione quanto nel settore privato."

Il problema principale è che non si è sviluppata quella sensibilità necessaria a vedere la sicurezza come uno degli aspetti principali da tener presente quando si prepara un business. Oggi, la sicurezza è ancora vista come un costo che nessuno vuole sobbarcarsi.

"Il problema" – ci spiega – "è che poi i costi arrivano davvero quando si verifica una intrusione. La spesa tipica per il recovery da un attacco in una media azienda è di circa 3 milioni di dollari".

Al fermo dell'attività, infatti, vanno poi a sommarsi i costi dell'intervento di recupero e pulizia veri e propri, oltre alla necessità di ricostruire spesso completamente l'infrastruttura per eliminare le falle che hanno portato al disastro.

"Troppe reti" – continua Mauceli – "non sono progettate partendo dal concetto di sicurezza: non sono Secure by Design, come si dice in gergo . Le aziende e gli enti si limitano ad applicare qualcosa che dia una impressione di protezione a quello che è un colabrodo."

"Otto aziende attaccate su 10 non vengono colpite perché espressamente prese di mira da attacchi super sofisticati, ma perché non applicano le patch di sicurezza. Quando entriamo in un'azienda o un ente, ci capita di trovare server con un arretrato di 100/150 patch da applicare. Quale può essere la sicurezza in questi casi? E pensare che applicarle non costa niente o quasi…"

Probabilmente questi casi sono il retaggio dell'antico adagio "se funziona, non aggiustarlo", una filosofia di vita che non può più essere applicata al giorno d'oggi perché se il malfunzionamento di una macchina può causare dei danni, una intrusione informatica (che avverrà se non c'è un'attenta manutenzione) comporta problemi molto più seri.

"Eppure, sono pochissimi quelli che fanno del risk management sensato. Ci si limita quasi esclusivamente a un discorso di difesa perimetrale, tralasciando tutto quello che va oltre ed è più importante al giorno d'oggi." – osserva Mauceli.

"Le soluzioni in cloud" – continua il CTO – "sono ingiustamente sottovalutate, le si guarda con sospetto quando in realtà sono gli strumenti più avanzati che un responsabile IT possa sfruttare. Senza scendere in soluzioni particolarmente complesse, basti pensare al sistema di controllo della posta."

Per esempio, proprio Microsoft propone un sistema chiamato Advanced Threat Protection che prevede una "detonation chamber": quando un allegato a un messaggio non viene riconosciuto, il sistema in cloud lo sposta in un'area protetta e lo apre, analizzandone il comportamento e bloccandolo se compie azioni illecite.

Una applicazione emblematica che già ci fa pensare al fatto che fare sicurezza "fuori" dall'azienda è intrinsecamente più sicuro che farla "dentro".

"Quanta infrastruttura di sicurezza può mettere in piedi un'azienda al suo interno? Per quanti soldi possa spendere, sarà sempre una versione minima di quello che può esser offerta da una struttura in cloud che gira in un datacenter dedicato e può contare sui dati che arrivano dall'analisi di milioni di casi".

Quali sono i problemi che Microsoft vede ogni giorno nelle aziende e negli enti in cui va a fare consulenza?

"La classifica è lunga" – risponde Mauceli – "ma diciamo che sei passi possono bastare a coprire la maggioranza dei casi:"

  1. L'obsolescenza dei sistemi è sconfortante. Ci sono servizi critici che girano su macchine e sistemi di 10/15 anni fa, quando la sicurezza era una cosa molto diversa da quella che è oggi.
  2. Non viene fatta manutenzione sui sistemi esistenti: le patch non vengono applicate e questo lascia aperti i sistemi a falle che risalgono a lustri fa.
  3. Le credenziali non vengono protette in maniera adeguata. I motivi sono tantissimi, ma il problema principale è che se le password di amministrazione o degli utenti escono dalla rete, è ovvio che prima o poi qualcuno entri.
  4. Sono pochissimi i casi in cui si definiscono dei ruoli sulle macchine: se non devi installare del software, perché il tuo utente dovrebbe essere di tipo amministrativo?
  5. Non c'è abbastanza competenza nelle aziende per configurare in maniera appropriata tanto gli application quanto i gli authentication server.
  6. Non ci si fida della cloud, quando invece è un alleato potentissimo e a costo ragionevole.

Secondo Mauceli, piccole e medie imprese nonché pubblica amministrazionesono i bersagli tipici di queste casistiche. Cosa bisognerebbe fare, quindi, per smuovere un po' le acque? Cosa si deve fare in Italia per uscire da questa situazione di immobilismo?

"C'è da fare tanto, ma intanto notiamo che le cose stanno cambiando. Già il fatto che nell'ultima finanziaria si sia parlato di destinare 150 milioni di euro allo sviluppo della cybersecurity è un dato importantissimo che può servire a gettare le basi".

L'istituzione di un organismo centrale che coordini gli sforzi in materia di sicurezza informatica sarebbe assolutamente il benvenuto e potrebbe organizzare una serie di attività tese a migliorare la situazione.

Innanzitutto, serve molta formazione, ma soprattutto dal punto di vista del business. Bisogna far capire alle aziende e agli enti che la sicurezza non è più una spesa a parte, ma una voce integrante dell'infrastruttura. Servono corsi e operazioni mirate al contatto con chi decide come devono funzionare i computer.network security

Poi servono anche più sforzi da parte di scuole e università nel formare tecnici specializzati in sicurezza. Gli attuali corsi di laurea soffrono un po' della stessa sindrome delle aziende: la sicurezza non è integrata in tutti gli aspetti che si insegnano, ma gestita come un capitolo a parte.

Dopo averli formati, bisogna anche certificare questi tecnici in modo che possano proporre soluzioni di qualità al mercato, per garantire standard elevati sia nella Pubblica Amministrazione, dove la sicurezza del dato del cittadino dovrebbe essere un dovere morale, sia nel privato dove in caso di intrusione si ha un danno economico notevole.

"Un buon punto di partenza" – conclude Mauceli – "sarebbe quello di iniziare una serie di collaborazioni tra pubblico e privato in modo daportare la competenza delle aziende che conoscono bene questo settore in un ambito che ha problematiche complesse che non possono essere analizzate solo da aziende esterne o solo da personale interno".

Se la NSA ha deciso di collaborare con Microsoft per garantire la sicurezza di alcuni sistemi destinati alla sicurezza nazionale, non si capisce perché non si possano stipulare degli accordi per cose di livello meno impegnativo.

Ma c'è un'ultima cosa su cui Mauceli ci fa riflettere:

"Mettere in piedi tutte le linee guida del mondo è poi inutile se le leggi non si fanno rispettare. Ho detto poco fa che i problemi più grandi derivano da obsolescenza e mancanza di manutenzione, ma miamo un'occhiata a quanto dice la legislazione sul trattamento dei dati. È già stato scritto e ben dettagliato che i sistemi che trattano i dati personali dovrebbero essere aggiornati e revisionati ogni sei mesi, ma cosa succede invece? Che andiamo negli enti e troviamo macchine con 150 patch arretrate. Così non si va da nessuna parte."

Pubblicato in News

Sicurezza, 20 mln di app maligne nell'anno delle estorsioni

 

Gli esperti di Trend Micro hanno realizzato il report "Previsioni sulla sicurezza per il 2016". Si tratta di macro tendenze che caratterizzeranno le problematiche sulla protezione dei dati nel nuovo anno e che sono state spunto per una serie di interessanti riflessioni durante il Trend Micro Security Barcamp svoltosi a Milano alla presenza della stampa.

Gastone Nencini, Country Manager di Trend Micro Italia, è stato affiancato da esperti di mercato ed esponenti di aziende di primo piano: Donato Ceccomancini, Sales Operation and Sales Consultant Director di Fujitsu Italia, Francesco Traficante, Data Protection Officer & Privacy Consultant, Founder e CEO di Microell, Vincenzo De Lisi, CIO di Sirti, Davide Maria Rossi, Partner di Spike Reply e Rodolfo Rotondo, Business Solution Strategist di VMware, con la moderazione di Enrico Pagliarini, giornalista di Radio 24.

A dare il via ai lavori, Carla Targa, Marketing & Communication Manager di Trend Micro Italia: «I Trend Labs, oltre alla ricerca e sviluppo, elaborano anche studi, che hanno anche lo scopo di diffondere la cultura sulla sicurezza. Una necessità, come ha sottolineato recentemente anche Tim Cook (Ceo di Apple), in un'epoca in cui sempre più condividiamo dati sui social, navighiamo con device mobili, esponendo a pericoli la nostra privacy».

Se, da un lato, l'aumento di consapevolezza sui rischi online renderà più efficaci le politiche di protezione dei dati, dall'altro, per la paura di perdere i dati gli utenti finali diventeranno più vulnerabili ai ricatti online.

Gastone Nencini, infatti, commentando le previsioni degli esperti Trend Micro per il 2016, sottolinea l'efficacia già ottenuta con i cryptoware e i ramsonware in generale: «Nel 2016 si registrerà una crescita delle estorsioni online, anche su mobile. Già è avvenuto "adescando" le vittime con pubblicità falsa di noti retailer italiani».

Trend Micro Security Prediction 2016 #2

Le minacce in tal senso diventeranno sempre più sofisticate, ma questa volta non dal punto di vista tecnologico, bensì psicologico: «I cybercriminali hanno creato gruppi di ricerca con psicologi che li aiutano a comprendere le dinamiche per sfruttare i punti deboli degli utenti».

Viene da pensare che la sicurezza informatica incontri quella fisica su un piano criminale "antico". Di fatto Ci sono stati casi di suicidio istigato dall'estorsione online, ma il proliferare di dispositivi "smart", cioè collegati a Internet e quindi hackerabili, apre scenari ancora più vasti: «C'è chi ha montato una pistola su un drone progettato per il mondo consumer», spiega ancora Nencini, accennando ai potenziali danni fisici, anche alle persone, che può comportare la manipolazione informatica di sistemi industriali, dalla metropolitana senza autista agli SCADA, alle diverse declinazioni dell'industry 4.0.

Oltre all'ampio tema dell'Internet of Things, su cui intervengono alcuni dei convenuti, al Trend Micro Barcamp si è parlato, tra l'altro, di identità digitale, minacce mobili (si prevede di superare la quota di 20 milioni di app maligne), data security officer.

Una sintesi delle 7 predictions dei Trend Labs è compresa nell'articolo completo sul Barcamp pubblicato sul numero 30 di Security & Business.

Pubblicato in News
Pagina 1 di 4
Copyright © Xion Informatica S.n.c. - P. IVA 06455280963
Powered by Rubedo Marketing & Web Solution
Security by Ermeteus