Assistenza Informatica & Sistemistica - Xion Informatica Milano
Assistenza Informatica & Sistemistica - Xion Informatica Milano

News

Aruba e Acronis, Partner per offrire il nuovo servizio Cloud Bare Metal Backup

 

Il servizio, destinato ai clienti Private Cloud e basato su tecnologia Acronis, permette agli utenti di sottoporre a backup le vApp e le VM interessate attraverso un intuitivo pannello web   

Aruba Acronis annunciano la disponibilità del nuovo servizio Aruba Cloud Bare Metal Backup, che consente alle aziende di effettuare backup completi delle proprie macchine virtuali Private Cloud tramite un pannello web semplice e intuitivo. Il nuovo servizio di backup è basato su immagini remotizzate, tecnologia leader di Acronis.

Il servizio Cloud Bare Metal Backup di Aruba lavora a livello dell’hypervisor di virtualizzazione, evitando l’installazione di agenti di backup a bordo delle singole Virtual Machine da proteggere. Il servizio Cloud Bare Metal Backup può essere utilizzato in modo complementare con il servizio Cloud Backup di Aruba, insieme al quale permette di ottenere una protezione totale delle Virtual Machine, fisica, virtuale e applicativa.

Il nuovo servizio backup è basato su AnyData Engine di Acronis ed ha lo scopo di rendere più facile il backup delle vApp e delle virtual machine (VM) per le aziende tramite un pannello web semplice che permette agli utenti business un controllo completo, che comprende:

  • impostazione della periodicità e della persistenza preferita
  • pianificazione del ripristino, sia dell’intera macchina sottoposta a backup che dei singoli file in essa contenuti
  • riconfigurazione di virtual machine ripristinate, modificandone parametri come rete, host name, CPU e memoria, o decidendo di clonarle su di una nuova vApp.

Il servizio viene erogato con la granularità della singola Virtual Machine e comprende 200 GB di spazio per ciascuna macchina. La tecnologia di backup si integra direttamente con l’hypervisor del servizio Private Cloud e con i meccanismi di protezione offerti da VMware per garantire consistenza e prestazioni. E’ presente anche l’integrazione nativa con VSS di Microsoft (attraverso i VMware tool) per assicurare la consistenza applicativa.

Con il nuovo servizio, Aruba mette a disposizione dei propri clienti Private Cloud due differenti canali di assistenza: sia telefonica che via Ticketing System.

“Cloud Bare Metal Backup è lo strumento ideale per chi necessita di una sicurezza totale – ha commentato Stefano Cecconi, Amministratore Delegato di Aruba S.p.A. “Il servizio agisce al di fuori della macchina a livello di hypervisor e ha quindi visibilità della macchina in blocco. L’ utilizzo del servizio di Cloud Backup congiunto a quello di Cloud Bare Metal Backup basato su Acronis offre visibilità a livello applicativo di ciò che gira nella VM e consente quindi una protezione totale.”

“La nostra nuova offerta presentata con Aruba fornisce un potente backup a multi livelli, multi-tenant e self-service oltre che una soluzione di disaster recovery (DR), permettendo ai fornitori di servizi cloud di stabilire servizi BaaS ( Backup as a Service) leader del settore per i propri utenti”, ha dichiarato Mauro Papini, Country Manager di Acronis Italia. – Siamo onorati di collaborare con un leader come  Aruba per fornire ai clienti una soluzione backup completa.”

Copyright

Microsoft e Red Hat definiscono un nuovo standard per il Cloud enterprise

 

La nuova piattaforma per l’impresa consente ai client di scegliere fra Microsoft Azure e .NET

Microsoft e Red Hat hanno annunciato un accordo che aiuterà i clienti di entrambe le aziende ad abbracciare il cloud computing grazie a una maggiore scelta e flessibilità nell’installare le soluzioni Red Hat su Microsoft Azure. Microsoft offre infatti Red Hat Enterprise Linux come scelta preferenziale per i carichi di lavoro enterprise Linux in ambiente Azure a. Inoltre, Microsoft e Red Hat stanno collaborando per soddisfare le più comuni esigenze di imprese, software vendor e sviluppatori in termini di costruzione, installazione e gestione delle applicazioni su software Red Hat in ambienti cloud pubblici e privati.

Tra i termini della partnership sono previsti:

Soluzioni Red Hat disponibili in forma nativa ai clienti Microsoft Azure. Nel corso delle prossime settimane, Microsoft Azure diventerà un Red Hat Certified Cloud and Service Provider e consentirà ai clienti di far girare le proprie applicazioni e carichi di lavoro Red Hat Enterprise Linux in ambiente Microsoft Azure. Gli utenti di Red Hat Cloud Access potranno portare le immagini delle loro macchine virtuali su Microsoft Azure. I clienti di Microsoft Azure potranno inoltre godere appieno del valore della piattaforma applicativa di Red Hat, compresi Red Hat JBoss Enterprise Application Platform, Red Hat JBoss Web Server, Red Hat Gluster Storage e Red Hat OpenShift, l’offerta platform-as-a-service di Red Hat. Nel corso dei prossimi mesi, Microsoft e Red Hat prevedono di fornire le soluzioni “a consumo” Red Hat On-Demand e le immagini Red Hat Enterprise Linux nel Marketplace di Azure, supportate da Red Hat.

·         Supporto enterprise integrato per ambienti ibridi. I clienti potranno usufruire di un supporto inter-piattaforma e inter-aziendale integrato fra Microsoft e Red Hat, a differenza di altre partnership nel cloud pubblico. Collocando team di supporto di entrambe le aziende negli stessi spazi, l’esperienza sarà semplice ed immediata, a velocità di cloud.

 Gestione unificata dei carichi di lavoro su installazioni hybrid Cloud. Red Hat CloudForm sarà interoperabile con Microsoft Azure e Microsoft System Center Virtual Machine Manager, dando ai clienti di Red Hat CloudForms la possibilità di gestire Red Hat Enterprise Linux sia su Hyper-V sia su Microsoft Azure. Il supporto di Red Hat CloudForms per la gestione dei carichi di lavoro su Azure è previsto per i prossimi mesi, ed estenderà le attuali funzionalità di System Center per la gestione di Red Hat Enterprise Linux.

 

 Collaborazione su .NET per funzionalità di sviluppo applicazioni di nuova generazione. Partendo dall’anteprima di .NET su Linux annunciata da Microsoft lo scorso aprile, gli sviluppatori potranno accedere alle tecnologie .NET da diverse soluzioni Red Hat tra cui Red Hat OpenShift e Red Hat Enterprise Linux, supportata congiuntamente da Microsoft e Red Hat. Red Hat Enterprise Linux sarà l’ambiente operativo primario di sviluppo e di riferimento per .NET Core su Linux.

“Questa partnership offre importanti prospettive per ISV e sviluppatori”, ha commentato Scott Guthrie, Executive Vice President della divisione Cloud and Enterprise di Microsoft. “Ci permette inoltre di estendere il nostro impegno verso una flessibilità e una possibilità di scelta senza paragoni negli ambienti Cloud di oggi, il tutto nel rispetto dei rigorosi requisiti di sicurezza e scalabilità che le aziende esigono”.

“Il datacenter è eterogeneo e il cloud è ibrido”, ha dichiarato Paul Cormier, Presidente della divisione Products and Technologies di Red Hat. “Con l’unione tra Red Hat e il leader nel campo dei carichi di lavoro nell’impresa, i veri vincitori oggi sono i nostri clienti. Assieme, infatti, offriamo il più completo accordo di supporto per tecnologie miste a vantaggio dei clienti”.

Copyright

produzione wafer chip

 

La taiwanese TSMC ha affermato di aver avviato i primi lavori esplorativi per la produzione a 5 nanometri. Prima toccherà tuttavia ai 10 e ai 7 nanometri.

TSMC, il più grande produttore al mondo di microchip per conto terzi, ha avviato i lavori affinché in un futuro non troppo lontano sia possibile produrre chip con processo a 5 nanometri. Mark Liu, co-CEO dell'azienda, ha fatto alcuni commenti in merito durante una conferenza all'inizio di questo mese.

Al momento TSMC non ha comunicato una roadmap ufficiale, e sta ancora valutando se usare la litografia extreme ultraviolet (EUV), un metodo di produzione differente e più avanzato di quello attuale, ma anche ha ancora qualche neo di troppo, dalla velocità di produzione ai sistemi ancora immaturi, cioè non ancora in grado di fornire l'affidabilità richiesta.

Non è chiaro quindi qualche sarà la soluzione adottata da TSMC per la produzione a 5 nanometri, anche se l'industria vede con favore una combinazione tra la tecnologia a immersione 193i di Nikon e l'EUV sostenuta da ASML Holding e altri.

"L'estensione della tecnologia a immersione 193i ai 7 nanometri e oltre è possibile, tuttavia richiederebbe un patterning ottuplo e altri passaggi che aumenterebbero i costi di produzione. Potrebbe rappresentare un freno per i produttori di chip che hanno intenzione di adottare processi inferiori, rallentando la crescita dell'industria", sottolinea il sito EETimes.

A luglio IBM Research ha realizzato un prototipo di chip funzionante a 7 nanometrisfruttando la litografia EUV e transistor con un canale in silicio-germanio (SiGe). TSMC, dal canto suo, ha prodotto la prima SRAM funzionante a 7 nanometri a ottobre e si aspetta di avviare la produzione dei primi chip nel 2017. L'azienda, infatti, dovrebbe eseguire il tape out dei primi progetti a 10 nanometri all'inizio del 2016.

Copyright

 

 skylake

Sembra proprio che presto sarà possibile aumentare il BLCK delle CPU Intel Skylake non K, ossia con moltiplicatore bloccato. Una bella svolta per chi sta pensando di rifarsi il PC.

Grandi notizie per gli appassionati di overclock e non: a breve sarà possibile overcloccare in modo piuttosto marcato le CPU Skylake con moltiplicatore bloccato, solitamente avare di sorprese sotto questo punto di vista. Espressa la sintesi, è bene fare qualche passo indietro per capire la genesi di questa svolta inaspettata e le varie sfaccettature.

Da qualche settimana, come i più appassionati di overclock sapranno, l'overclocker Dhenzjhen è salito alla ribalta delle cronache per aver portato un Core i3 6320 a 4955 MHz grazie a un BCLK di 127 MHz su una scheda madre SuperMicro C7H170-M modificata.

Un intervento che, secondo quanto riportato da Anandtech, sarà esteso ad altre motherboard ma senza bisogno di un intervento hardware, bensì grazie a un semplice aggiornamento firmware. Una svolta davvero interessante, che non crediamo faccia molto contenta Intel. Le ultime generazioni dei suoi processori, salvo alcuni modelli "K", hanno il moltiplicatore bloccato e il BCLK non è modificabile senza incappare in problemi.

La frequenza della CPU è infatti determinata dalla frequenza base (o base clock, BCLK, solitamente di 100 MHz) e dal moltiplicatore. Solitamente il base clock è sempre stato liberamente modificabile, ma dalle CPU Sandy Bridge a oggi era legato ad altre parti del sistema, come la frequenza del PCIe o l'archiviazione, il che significava che qualsiasi overclock oltre i 103-105 MHz portava a problemi come la perdita di dati e la degradazione del segnale.

L'architettura Skylake cambia tutto questo in quanto chipset e PCIe hanno il proprio dominio di frequenza, mentre la frequenza base influenza solo la CPU (e le sue varie componenti interne), la GPU integrata e la DRAM. Nonostante ciò, l'overclock degli ultimi processori "non K" sembrava rimanere, almeno finora, piuttosto limitato. L'overclocker Dhenzjhen è tuttavia riuscito ad andare oltre le aspettative (+27% sotto azoto liquido). È plausibile che con un raffreddamento ad aria si arrivi a un incremento prestazionale tra il 10 e il 15%.

L'aspetto interessante è che, a quanto pare, quanto raggiunto dall'overclocker sulla motherboard di Supermicro sarà replicabile via software. Almeno è quanto ha confidato ad Anandtech nientemeno che ASRock, assicurando che gran parte delle sue schede madre riceverà un aggiornamento del BIOS che "sbloccherà" l'overclock. Ciò avverà "molto presto".

L'azienda taiwanese ha inviato al sito alcune immagini in cui su una motherboard Z170 OC Formula un Pentium G4400, un Core i3-6300T e un Core i5-6600 hanno visto salire il proprio base clock di oltre il 20% con vette fino al 30%. Il tutto con raffreddamento ad aria.

Al momento l'azienda non ha spiegato qual è il trucco dietro a tutto questo, ma sembra che l'operazione disabiliti automaticamente la GPU integrata, ma solo se il driver di Intel è installato. Qualcosa di cui tenere conto.

A riprova che il tutto non non dovrebbe rimanere limitato a Supermicro e ASRock c'è un overclock a 152,8 MHz del BCLK di un Core i3-6300 raggiunto dall'overclocker elmor, che ha portato la CPU a 5,8 GHz su una Maximus VIII Gene di Asus. Anche in questo caso sotto azoto liquido.

Quanto riportato da Anantech è confermato da Techspot, che ha svolto dei test sul campo con una motherboard di ASRock. Come scritto poco sopra, rimane da capire la posizione di Intel. Se gli utenti potranno acquistare Core i3 o Core i5 "non K" con la speranza di un overclock del 10-15%, le vendite di CPU K potrebbero risentirne.

Copyright

 facebook big sur 01

 Si chiama Big Sur il nuovo sistema hardware di Facebook che, grazie a otto GPU, punta a istruire reti neurali per compiti di machine learning e lo sviluppo d'intelligenze artificiali. La buona notizia è che sarà reso del tutto open source.

Negli ultimi anni i ricercatori di tutto il mondo e le aziende tecnologiche hanno compiuto passi da gigante nell'ambito dell'intelligenza artificiale e più precisamente in una delle sue aree, il machine learning (apprendimento automatico), dove dati e algoritmi per il riconoscimento di modelli complessi permettono ai computer di prendere decisioni e svolgere compiti.

Il boom di quest'ultimo periodo è legato a due trend: l'ampia disponibilità di dati di ricerca pubblici e l'arrivo sulla scena delle GPU, capaci di macinare quantità enormi di informazioni in minor tempo rispetto ai tradizionali microprocessori.

Tra i tanti che stanno lavorando in questo ambito troviamo Facebook: inevitabile per chi possiede miliardi di informazioni nuove ogni giorno che possono essere analizzate e combinate per creare nuove esperienze, rispondere a problemi e molto altro ancora.

"Abbiamo sviluppato software che possono leggere storie, rispondere a domande, giocare e imparare cose tramite l'osservazione di alcuni esempi. Abbiamo tuttavia realizzato che per prendere davvero di petto questi problemi avremmo dovuto progettare i nostri sistemi", spiegano gli ingegneri Kevin Lee e Serkan Piantino. "Oggi sveliamo il nostro nuovo sistema basato su GPU per istruire reti neurali, il suo nome in codice è Big Sur".

Big Sur è l'hardware "open rack compatibile" più recente di Facebook, pensato per lavorare nello sviluppo di intelligenze artificiali su larga scala. A bordo che sono benotto schede acceleratrici Tesla M40 di Nvidia. Ogni scheda offre una GPU GM200 con 3072 CUDA core affiancati da 12 GB di memoria GDDR5, per una potenza di picco a singola precisione di 7 TFLOPs, un bandwidth di 288 GB/s e TDP di 250 watt.

"Big Sur è il doppio più veloce della nostra precedente generazione, il che significa che possiamo istruire due volte più rapidamente ed esplorare reti il doppio più grandi. Distribuire la formazione tra otto GPU ci permette di scalare la dimensione e la velocità delle nostre reti di un altro fattore pari a due", scrivono i due ingegneri dell'azienda.

Lee e Piantino aggiungono che Big Sur è molto più versatile ed efficiente perché pur usando un raffreddamento speciale e altre soluzioni uniche, sono riusciti a ottimizzare il nuovo sistema per una maggiore efficienza energetica e il funzionamento a temperature inferiori, tanto che è raffreddato ad aria.

"Abbiamo rimosso i componenti che non venivano usati molto, mentre i componenti che si rompevano di frequente - come gli hard disk e le DIMM - possono ora essere rimossi e rimpiazzati in pochi secondi. […] Persino la motherboard può essere rimossa in pochi minuti, mentre la piattaforma hardware originale richiedeva oltre un'ora. Big Sur è quasi interamente smontabile senza l'uso di cacciavite, a eccezione del dissipatore della CPU".

La buona notizia per l'intero settore della ricerca è che Big Sur sarà reso "open source" e sarà sottoposto all'Open Compute Project (OCP). Facebook, in questo modo, spera che altri possano realizzare sistemi simili e persino migliori al fine di compiere passi avanti nel settore dell'intelligenza artificiale in tempi più rapidi.

Copyright

 radeon software

Piccolo aggiornamento driver per AMD. I Radeon Software Crimson 15.2 WHQL sono dei Crimson 15.11.1 Beta con certificazione Microsoft e due bug risolti in più.AMD ha pubblicato un piccolo aggiornamento dei driver grafici Radeon Software Crimson Edition. La build 15.12 viene definita come "la versione WHQL dei Crimson 15.11.1 Beta", ossia non ci sono grandi cambiamenti, se non per la risoluzione di due ulteriori problemi.

Il primo è che il controllo sulla presenza di nuove versioni di driver integrato in Radeon Settings non funzionava a dovere. Il secondo è che il computer consumava maggiormente in idle in Windows 7 con Radeon Settings in funzione.

I driver contengono anche i bug già risolti in precedenza, ovviamente, mentre non si fa menzione di un problema di underclocking ravvisato da alcuni utenti e sul quale AMD ha dichiarato di essere impegnata nel trovare una soluzione.La certificazione WHQL (Windows Hardware Quality Labs) indica che i driver sono stati provati da Microsoft per la compatibilità sui propri sistemi operativi. Non è un aspetto decisivo ai fini della bontà di un driver, ma se non altro è l'assicurazione di un controllo in più sul software che poi viene pubblicato.

Copyright

Pagina 1 di 43
Copyright © Xion Informatica S.n.c. - P. IVA 06455280963
Powered by Rubedo Marketing & Web Solution
Security by Ermeteus