Feed RSS Reader

🔒
❌ Gestione sottoscrizioni⤓
Sono disponibili nuovi articoli, clicca qui per caricarli.
Ieri — 23 Gennaio 2019RSS feeds

AMD, il Core Complex dei Ryzen 3000 non richiederà nuove ottimizzazioni

di Manolo De Agostini

Per tornare competitiva contro Intel nel mercato dei microprocessori, AMD ha dovuto creare negli scorsi anni un’architettura completamente nuova rispetto alle precedenti, meglio nota come Zen. Di conseguenza non tutti i software e i giochi hanno funzionato al meglio fin da subito, costringendo AMD e i suoi partner a fare, specie nel primo anno, diversi aggiornamenti di natura software (ottimizzazioni).

Avere una base solida e costituita è fondamentale per consentire alle ottimizzazioni fatte dagli sviluppatori per una data architettura di dare il meglio. A metà anno assisteremo al debutto delle CPU Ryzen di terza generazione, che introdurranno in ambito consumer un progetto simile a quello degli EPYC di seconda generazione, ossia un I/O die affiancato da uno o più chiplet costituiti dai core x86.

La natura nuova del progetto potrebbe portare a pensare che gli sviluppatori di software dovranno tornare “sui banchi di scuola”, per apprendere le novità dell’architettura e ottimizzare di conseguenza. Fortunatamente non sarà così, o quasi. Mark Papermaster, direttore tecnologico (CTO) di AMD, ha spiegato ai colleghi di Tom’s Hardware USA che il software esistente funzionerà bene con la nuova generazione di CPU, in quanto il lavoro fatto finora sull’architettura Zen continuerà a essere valido.

Insomma, l’impegno profuso negli anni passati non andrà perduto, ma sarà una base da cui eventualmente migliorare. “L’ottimizzazione su cui abbiamo lavorato con l’industria quando abbiamo lanciato Ryzen era legata al nostro Core Complex. Abbiamo lavorato con successo sui sistemi operativi, Windows e Linux, quindi c’è comprensione del Core Complex di AMD e di come i vostri carichi di lavoro possono sfruttare quell’organizzazione”.

“Entrando in questa nuova generazione con i prodotti basati su architettura Zen 2, in realtà rendiamo il tutto più facile perché avete dei core che comunicano con un I/O comune. È lo stesso approccio che avevamo prima, ma ora avete semplicemente un percorso molto centralizzato. Dalla nostra implementazione server fino a quella Ryzen, non aggiunge alcuna complicazione per gli sviluppatori di software. Tutto il lavoro che abbiamo fatto con la prima generazione di Ryzen sarà mantenuto. Tutte quelle ottimizzazioni interesseranno anche le nuove CPU“.

Paparmaster conferma quindi che l’azienda sta usando un approccio basato sul già noto Core Complex per i die di calcolo (compute die), e sebbene AMD abbia sicuramente apportato dei cambiamenti all’architettura, il progetto di base non subirà rivoluzioni così drastiche da richiedere ottimizzazioni complesse e tali da richiedere molto tempo.

Al CES 2019 l’azienda ha spiegato che i Ryzen di terza generazione si presentano con un progetto modulare che consiste di un chiplet prodotto a 7 nanometri con 8 core connesso a un I/O die realizzato a 14 nanometri. In quest’ultimo sono contenuti i controller di memoria, i collegamenti Infinity Fabric e le connessioni di I/O. Per il momento, a parte il supporto PCI Express 4.0, AMD ha mantenuto il riserbo sulle altre novità del progetto.

Con questo progetto modulare AMD è riuscita a mantenere le aree del chip che non scalano bene, come i controller di memoria e l’I/O, su un processo produttivo maturo, sfruttando invece un processo più avanzato e recente come i 7 nanometri per garantire alte prestazioni di calcolo. Ogni chiplet integra 8 core e AMD ha fatto capire che in commercio vedremo – non è chiaro se da subito o meno – CPU con più di otto core (fino a 16).

Per quanto riguarda il Core Complex come lo conosciamo, per le due precedenti serie di Ryzen l’azienda ha adottato un CPU complex (CCX) composto da quattro core connessi a una cache L3 da 8 MB centralizzata suddivisa in quattro parti. Ogni core ha una cache L2 privata da 512 KB, e AMD connette più CCX tra loro per creare modelli con più core come i Ryzen di punta da 8 core / 16 thread, formati da 2 CCX.

Probabilmente con la terza generazione di Ryzen AMD aumenterà anche la capacità di alcune cache e farà altri cambiamenti, ma non ci resta che attendere maggiori informazioni per averne la certezza. Non è chiaro inoltre se AMD userà ancora due CCX a quattro core separati dentro un singolo die a 8 core oppure se un CCX offrirà direttamente 8 core. A ogni modo, l’interconnessione Infinity Fabric di prossima generazione dovrebbe migliorare anche il protocollo e l’efficienza, dando margine di manovra ad AMD.

Per il momento però rimaniamo alle buone notizie: i software non dovranno essere rivoluzionati per rendere al meglio sulle prossime CPU Ryzen di AMD, come invece è stato necessario fare al debutto dell’architettura Zen nel 2017. Le ottimizzazioni fatte sinora si riveleranno utili anche per i Ryzen 3000. Basteranno quindi probabilmente pochi ritocchi per ottenere le massime prestazioni da subito o in tempi brevi.

Meno recentiRSS feeds

Creare il miglior PC Gaming per Battlefield V, test e consigli

di Marco Pedrani

È passato qualche mese dall’articolo su Monster Hunter: World, ma non ci siamo dimenticati di voi: oggi vediamo quali sono le configurazioni ideali per giocare a Battlefield V. Prima di procedere però, alcune spiegazioni. Abbiamo assemblato tre PC di fasce di prezzo e prestazioni differenti, quelle più vendute e richieste, per vedere come si comportano i vari giochi. L’obiettivo è ricercare le configurazioni migliori per differenti esigenze prestazionali e anche economiche. Di seguito potete vedere come sono composti i tre PC che per semplicità abbiamo definito “economico”, “medio” e “fascia alta”:

CPU Scheda Grafica Memoria RAM SSD
PC economico AMD Ryzen 3 1200 Nvidia GTX 1050 8 GB DDR4
PC medio Intel Core i5-8400 Nvidia GTX 1060 6GB 8 GB DDR4
PC fascia alta AMD Ryzen 7 2700 Nvidia GTX 1070 Ti 8 GB DDR4

Abbiamo indicato solo i componenti che incidono sulle prestazioni. È bene inoltre specificare che queste configurazioni sono state ideate per essere “intercambiabili”, ovvero dove c’è il Ryzen 3 1200 può esservi un Core i3-8100, data la differenza prestazionale contenuta.

Nel corso dell’articolo trovate anche alcuni grafici, che servono come riferimento visivo di massima delle prestazioni del sistema a una data impostazione di gioco.

Una premessa

Come saprete le RTX sono ormai sul mercato da un po’ e di recente è arrivata anche la 2060. Sebbene le schede abbiano iniziato a diffondersi, le “vecchie” GTX sono ancora di gran lunga le più diffuse e sono davvero pochi i giochi in cui il ray tracing è presente e supportato a dovere. Abbiamo quindi deciso, per questo e altri test, di mantenere nelle nostre configurazioni di prova le GPU di vecchia generazione e di testare Battlefield V senza ray tracing, ma in futuro inevitabilmente le RTX sostituiranno – almeno in parte – le GTX che usiamo attualmente.

Giocare in Full HD 60 fps

Per cercare di giocare a questa risoluzione siamo partiti a testare con la configurazione media, composta da un processore Core i5-8400, una GTX 1060 6GB, 8 GB di RAM e SSD. Anche con i dettagli al massimo le prestazioni sono tali da permetterci di giocare a 60 / 70 fps, tuttavia il framerate non è molto stabile: per andare sul sicuro vi conviene abbassare leggermente i dettagli ed impostarli su alto anziché ultra.

Con la configurazione di fascia bassa (PC economico) in cui i componenti principali sono un Ryzen 3 1200 e una GTX 1050 2 GB, giocare in Full HD si è dimostrato più complesso del previsto. Impostando i dettagli ad ultra ci siamo attestati intorno ai 30 fps.

Portando i dettagli grafici a livello medio il titolo diventa giocabile, quindi si arriva ai 60 fps, ma anche qui il framerate è altalenante. È chiaramente possibile impostare tutto al minimo oppure addirittura scendere di risoluzione, ma forse la scelta migliore è optare per una configurazione di fascia media con una GTX 1060, oppure anche una RX 570 o RX 580/590 di AMD.

Giocare a 1440p 60 fps   

In Battlefield V le differenze di prestazioni tra il FHD e il QHD non sono poi così marcate. Con la configurazione di fascia media, i 60 fps a 1440p con dettagli massimi sono purtroppo irraggiungibili, ci si ferma intorno ai 40 fps. Abbassando i dettagli a medio/basso si riescono invece a raggiungere i 60 fps in maniera abbastanza stabile, anche usando una 1060.

Con la configurazione di fascia alta invece a 1440p e dettagli massimi registriamo un frame rate sempre stabile intorno ai 60 fps. Lo stesso risultato si ottiene facilmente anche con una 1080 Ti oppure con le più recenti RTX 2070 e 2060. Abbassando il livello di dettaglio con una di queste quattro schede è possibile anche raggiungere i 100 fps, ma non essendo mai stabili (sarete sempre tra gli 80 e i 100) forse non ne vale troppo la pena.

Giocare in 4K 60 fps

Per il nostro test in 4K abbiamo usato il PC di fascia alta, il sistema con Ryzen 7 2700, con una GTX 1070 Ti, 8 GB di RAM e un SSD. A questa risoluzione e dettagli massimi Battlefield V si ferma tra i 30 e i 40 FPS a seconda dello scenario, risultando quindi sì giocabile ma non molto godibile.

Abbassando invece il livello di dettaglio e impostandolo a medio-basso, è possibile raggiungere i 60 fps anche in 4K. L’impatto grafico è però piuttosto evidente e Battleflied 5 non è un titolo che brilla per stabilità del framerate, quindi non vi consigliamo questa impostazione. Per questo sistema forse il miglior compromesso sta nel mezzo.

Dato che la GTX 1070 Ti si è dimostrata insufficiente per giocare in 4K al top, vi consigliamo di acquistare almeno una scheda come la GTX 1080 Ti o simile (RTX 2080), anche se per spazzare via qualsivoglia problema prestazionale la RTX 2080 Ti sarebbe la scelta migliore – per ora è l’unica scheda video in commercio a garantire prestazioni 4K soddisfacenti con grafica al top.

Cosa abbiamo imparato

La prova di Battlefield V su tre differenti sistemi, a risoluzioni e dettagli diversi, ci ha fatto capire che per giocare in Full HD con impostazioni alte è necessario dotarsi almeno di un computer con Core i5 e GTX 1060 6GB oppure un sistema analogo, che può essere anche un Ryzen 3 con una GTX 1070.

La risoluzione 1440p richiede una dotazione hardware migliore, e per quanto riguarda la scheda video si deve puntare almeno alla GTX 1070 Ti / 1080. Se volete superare i 60 fps con una di queste due schede video, abbassare i dettagli ad alto non inficia molto la qualità grafica del titolo ma vi permette di giocare stabilmente tra gli 80 e i 100 fps. Per giocare in 4K in modo accettabile è evidente che serve un computer potente, con una scheda video che abbia almeno la potenza di una GTX 1080 Ti.

Il consiglio per il processore è di non andare oltre un Ryzen 3/5 o un Core i5, ma se usate diverse applicazioni in background, come i software di chat vocale, e volete giocare a risoluzioni elevate come il 4K, allora forse fareste bene a puntare a qualcosa di più. Per quanto riguarda la RAM, 8 GB sono sufficienti, ma di nuovo se usate tanti software in background forse è meglio puntare ai 16 GB.

In questo articolo ci siamo concentrati nel raggiungere i 60 fps, ma parlando più in generale tutte le schede nel range RTX 2060 – 2070 (compresa la vecchia generazione) sono quelle che si adattano meglio alle varie esigenze: vi permettono infatti di raggiungere un frame rate tra gli 80 e i 100 fps abbassando il livello di dettaglio a 1440p, oppure di giocare in FHD a 144 Hz. se però volete combinare 144 Hz e QHD, vi servirà una 2080.

Infine una nota sulla 2060: è una buona scelta se siete alla ricerca di una nuova scheda video, offre prestazioni equivalenti a quelle della nostra configurazione di fascia alta e in FHD con un livello di dettaglio alto vi permette anche di giocare con il ray tracing attivo mantenendo un framerate accettabile.

Configurazioni consigliate

Per facilitarvi nella scelta del computer per Battlefield V, vi suggeriamo di seguito alcune configurazioni utili per giocare alle impostazioni che desiderate. Per i diversi componenti vi indichiamo modelli specifici, ma potete cambiarli a vostro piacimento, dato che potreste avere preferenze diverse per motherboard, case, alimentatore e RAM. Le nostre rimangono semplici indicazioni di massima.

Full HD e 60 FPS – dettaglio alto
CPU Intel Core i3-8100
AMD Ryzen 3 1200
Scheda Madre Chipset B450
Intel B360
Scheda Grafica AMD Radeon RX 580 8GB
Nvidia GeForce GTX 1060 6GB
Memoria RAM 8 GB DDR4
SSD 500 GB
Alimentatore 500 watt
Case Cooler Master MasterBox K500

 

1440p e 60 FPS – dettaglio alto
CPU Intel Core i5-8400
AMD Ryzen 5 2600
Scheda Madre Chipset B450
Intel B360
Scheda Grafica Nvidia GeForce GTX 1070 Ti
AMD Radeon RX Vega 64
Memoria RAM 8 GB DDR4
SSD 500 GB
Alimentatore 600 watt
Case Cooler Master MasterBox K500

 

Per vostra comodità potete vedere la versione video di questo articolo:

Radeon VII, AMD annuncia la compatibilità immediata con Linux

di Marco Pedrani

Il gaming su Linux sta prendendo sempre più piede, soprattutto grazie alla mossa di Valve di qualche mese fa di integrare un layer di compatibilità in Steam Play, grazie al quale gli utenti del pinguino possono giocare ai vari titoli che nascono solo per Windows. I colleghi di Forbes hanno fatto quattro chiacchiere con un PR di AMD, e a tal proposito sembra che la nuova Radeon VIIin arrivo il 7 febbraiosupporterà da subito i giochi anche su sistema operativo Linux.

La Radeon VII è una scheda dotata di GPU Vega prodotta a 7 nanometri da TSMC. La scheda è dotata di 16 GB di memoria HBM2, di un bandwidth di 1 TB/s e offre il 25% di prestazioni in più rispetto a Vega 64. Stando poi ai benchmark eseguiti da AMD, la Radeon VII dovrebbe competere direttamente con la RTX 2080.

Viste le dichiarazioni rilasciate a Forbes, sembra proprio che AMD non voglia ripetere “l’errore” commesso al lancio della RX590. In quel caso l’azienda fu criticata dall’utenza Linux in quanto, a causa di un cambio dell’ultimo minuto nel vBIOS, la scheda non risultò immediatamente compatibile con il sistema operativo libero. Ci vollero un paio di settimane per avere dei driver funzionanti, e questo non fece che rafforzare l’ipotesi per cui AMD vedesse Linux come sistema operativo di serie B.

Non ci resta quindi che attendere il prossimo 7 febbraio per vedere come si comporterà la scheda e capire se sia davvero in grado di rivaleggiare con la RTX 2080 di Nvidia, tanto su Windows quanto su Linux.

GPU Navi, AMD sta lavorando su quattro varianti?

di Marco Pedrani

Esplorando il codice sorgente di un aggiornamento per MacOS Mojave è stato scoperto un file denominato “AMDRadeon6000HWServiceskext” che fornisce nuovi dettagli sulle prossime AMD Navi.

Sembra che ci saranno – almeno per ora – quattro soluzioni: Navi 16, Navi 12, Navi 10 e Navi 9. Secondo Videocardz è probabile che questi siano i nomi dei diversi modelli più che quelli delle vere e proprie GPU. I numeri identificherebbero quindi le Compute Unit attive in ogni scheda. Si passerebbe quindi dai 576 di Navi 9 ai 1024 di Navi 16.

In queste ore si sta facendo sempre più concreta l’ipotesi che le schede Navi saranno il cuore delle nuove console, e come vi abbiamo raccontato qualche giorno fa, c’è chi pensa che le vedremo già all’E3 di giugno. Il fatto che alcuni riferimenti siano presenti all’interno dell’update di MacOS non fa che rafforzare l’idea che il lancio delle nuove GPU AMD sia effettivamente piuttosto vicino.

AGGIORNAMENTO: secondo PCGamesN, i numeri potrebbero non indicare delle varianti ma semplicemente si tratterebbe di un separatore dei nomi di C++.

PlayStation 5 e Xbox Scarlett potrebbero essere basate su AMD Navi e Zen

di Lorenzo Spada
PlayStation 5 e Xbox Scarlett

Con la PS4 e la Xbox One ormai arrivate a fine del loro ciclo di vita, si sta facendo sempre più un gran parlare delle nuove PlayStation 5 e Xbox Scarlett. Il loro annuncio dovrebbe avvenire già nel 2019 (alcuni pensano durante l’E3 2019) mentre la commercializzazione avverrà nel 2020. Al momento non abbiamo alcuna informazione […]

L'articolo PlayStation 5 e Xbox Scarlett potrebbero essere basate su AMD Navi e Zen proviene da TuttoTech.net.

Storia della memoria delle schede video

di Tom's Hardware

Prima di addentrarci nella storia della RAM dedicata alle schede video è bene fare un po’ di chiarezza su cosa sia la RAM e a cosa serve nelle schede video. Se avete letto l’articolo “Storia della RAM“, potete andare avanti senza nessun problema. Se però ve lo siete lasciato sfuggire, vi consigliamo di prendervi una decina di minuti e leggerlo perché ci sono alcune nozioni che vi serviranno..

Passando alla seconda questione, ovvero a cosa serva la RAM per le schede video, la risposta richiede la comprensione di alcuni principi. Quando usiamo un qualsiasi apparecchio elettronico dotato di monitor, le immagini che ci vengono mostrate sono elaborate prima dal processore (CPU) e poi dalla GPU (Graphic Processing Unit). Cosa fanno l’uno e l’altro dipende dal tipo di carico: con i carichi bidimensionali (2D, come il desktop del vostro sistema operativo) il processore svolge gran parte del lavoro mentre la GPU si limita ad applicare i colori; tuttavia, quando abbiamo a che fare con immagini tridimensionali, il processore disegna nello spazio tridimensionale i vertici dei poligoni che compongono la scena, mentre spetta alla GPU assegnare a ogni poligono colore, sfumature, ombre e così via fino agli effetti più pesanti (anti-aliasing, Motion Blur, etc.).

sapphire
Il circuito stampato di una Sapphire AMD R9 Fury – si noti che la RAM HBM1 non risiede sul circuito stampato, come era stato per anni, ma proprio accanto alla GPU

Per fare tutto questo la GPU necessita di una grande quantità di dati, dal framebuffer alle texture, dati che vengono memorizzati proprio nella RAM. Con il passare del tempo, le scene sono diventate sempre più complesse, il numero di poligoni è aumentato insieme alla qualità delle texture e, in ultimo, anche la quantità di frame al secondo che i monitor sono capaci di visualizzare. Tutto questo è stato possibile anche grazie all’evoluzione della RAM che è diventata più capiente, veloce ed efficiente.

Per capire l’importanza che ha la RAM, è utile calcolare la necessità di in termini di banda per gestire alcuni flussi video oggi comuni:

Risoluzione (pixel) [A] Frequenza [B] Milioni di Pixel al secondo [C=A x B] Profondità Colore [D] Miliardi di Bit al secondo [E=C x D]
HD (1280 x 720) 60 Hz 55,3 MPixel/s 24 bit per Pixel (16,7 milioni di colori) 1,33 Gbps
FullHD (1920 x 1080) 124,4 MPixel/s 2,99 Gbps
Ultra HD (3840 x 2160) 497,7 MPixel/s 11,9 Gbps

Se questi vi sembrano numeri elevati, pensate che arriveranno monitor con risoluzione 8K, ovvero quattro volte l’Ultra HD…

Volendo semplificare il discorso per renderlo comprensibile a tutti, pensate alla RAM della scheda video come al serbatoio di un’automobile: più è potente il motore, maggiore è la quantità di carburante di cui necessita. Quindi il serbatoio dovrà essere capiente ed il flusso di carburante dovrà essere garantito da tubi sufficientemente grandi o con una sufficiente pressione.

Per la RAM, la capienza è facilmente misurabile in termini di GigaByte (GB), mentre la velocità di trasferimento è il prodotto dell’ampiezza del bus (il diametro dei tubi di cui sopra) per la frequenza (clock).

Quindi, una scheda video ha bisogno di tanta RAM molto veloce; al contrario, se una scheda video è poco potente, avere tanta RAM non ne migliora le prestazioni così come montare il serbatoio di una Ferrari su un’utilitaria non la farà andare a 300 Km/h.

Quest’ultima considerazione può sembrare banale ma ci sono almeno due motivi per cui dovreste tenerla ben presente valutando un acquisto.

Il primo è che spesso e volentieri produttori e/o distributori realizzano e pubblicizzano schede video (desktop o mobili) puntando sulla quantità di RAM presente, ma questa è un’indicazione fuorviante perché la quantità di RAM non vi dirà quanto è potente la scheda video. Quindi, se state valutando una scheda video dedicata, a parità di GPU è preferibile un modello che ha meno memoria ma più performante (ad esempio 1GB di GDDR5 invece di 2GB di GDDR3).

In seconda battuta, i modelli di fascia media spesso vengono venduti in versioni che usano la stessa memoria ma in diversa quantità. In tal caso, se non cambiate spesso hardware, qualche GB in più di memoria potrebbe garantirvi una maggiore longevità.

PlayStation 5: secondo un leak avrà un chip AMD con 8 core Zen e una GPU Navi Lite

di Nicola Armondi

È da tempo che i rumor su PlayStation 5 suggeriscono le specifiche della futura console Sony. Ora, potremmo avere tra le mani un’informazione un po’ più precisa. Su Twitter è stato condiviso il codice di un nuovo chip AMD personalizzato che, secondo il leak, potrebbe essere il cuore della futura PS5. Il codice è “2G16002CE8JA2_32/10/10_13E9” e rivela più informazioni di quelle che ci si potrebbe aspettare.

Per iniziare, ci dice che il prossimo hardware di Sony userà ancora una volta un componente AMD personalizzato: il codice è simile a quello per PS4. Inoltre, Komachi conferma che Sony userà ancora una volta un SoC, cioè un chip con core x86 e GPU integrata, per PS5. Il nome in codice sarebbe “AMD Gonzalo”.

2G16002CE8JA2_32/10/10_13E9 Decode (Update)
2 = ES1
1600 = Sony Custom SoC (PS5?)
2C = TDP
E = Package
8 = 8C
J = Cache Size
A2 = A2 Stepping (?)
32 = 3.2Ghz (Boost)
10 = 1.0Ghz (Base)
10 = iGPU Clock? (1Ghz?)
13E9 = PCI-ID : Navi 10LITE (GFX1000/1001).https://t.co/NaLjNqNsvB

— 比屋定さんの戯れ言@Komachi (@KOMACHI_ENSAKA) January 18, 2019

I componenti hardware, secondo il leak, sono:

  • Una CPU con otto core fisici a 3,2 GHz basati su architettura Zen
  • Una GPU di tipo Navi 10 Lite

Di certo, queste informazioni ci permettono di affermare che PS5 farà un passo in avanti rispetto alle attuali PS4 e PS4 Pro che usano un’architettura Jaguar, vecchia di diversi anni. Ovviamente tutte queste informazioni sono da considerarsi come pure speculazioni e non come conferme ufficiali. Per ora Sony non si è sbottonata sulla sua prossima console, ma i più recenti rumor parlano di un’uscita probabile per il 2020 o, al massimo, 2021.

Per ora possiamo goderci il parco titoli di Sony grazie a PlayStation 4 Pro!

PCI Express 5.0 pronto entro il trimestre, ma non è il caso di andare in paranoia

di Manolo De Agostini

Dopo gli annunci di AMD riguardo il supporto al PCI Express 4.0 con le CPU Ryzen di terza generazione e la nuova Radeon VII siete già entrati in “sbattimento” da nuovo standard? Beh, sappiate che entro questo trimestre sarà finalizzato il PCI Express 5.0.

Il completamento della specifica quest’anno era già stato confermato, ma un comunicato del PCI-SIG dello scorso dicembre (passato in sordina), fissa tempi certi. Quasi due mesi fa ormai, il PCI Express 5.0 ha raggiunto la versione 0.9 della specifica, il che significa che ormai tutti i dettagli tecnici sono stati messi nero su bianco e i problemi superati.

I produttori di hardware possono quindi iniziare a pensare a come implementare la nuova interconnessione nei futuri prodotti, anche se in realtà molti lo staranno facendo da tempo. Infatti, la specifica è solitamente sufficientemente solida da garantire lo sviluppo già in versione 0.4.

Il PCI Express 5.0 raddoppia il throughput rispetto al PCI Express 4.0, portando il data rate da 16 a 32 GT/s. Si tratta di un protocollo full-duplex (comunicazione simultanea in entrambe le direzioni), che usa una codifica 128/130 bit e garantisce un bandwidth fino a 128 GB/s grazie a sedici linee da 4 GB/s. L’interconnessione è ancora basata sul rame ed è retrocompatibile con le versioni precedenti.

A qualcuno potrebbe suonare strana quella che sembra un’accelerazione nello sviluppo, ma in realtà a rappresentare un’anomalia è stato lo sviluppo del PCI Express 4.0. Il PCI Express 1.0 è stato completato nel 2002, nel 2006 è toccato alla versione 2.0. Tre anni più tardi è arrivato il PCI Express 3.0. Da allora sono passati ben 7 anni prima dell’ufficialità del PCI Express 4.0. E dopo due anni ecco arrivare il PCI Express 5.0.

L’appassionati di computer non deve però preoccuparsi: passerà diverso tempo prima di vedere il PCIe 5.0 in ambito consumer, con il PCIe 4.0 che dovrebbe godere di vita lunga. Il PCI-SIG si aspetta infatti che i due standard coesisteranno sul mercato per un po’, con la versione 5.0 usata principalmente nel mondo HPC (High Performance Computing) dove il throughput elevato farà la differenza sia per le GPU dedicate all’intelligenza artificiale che per quanto riguarda il networking. Non è da escludere l’arrivo dei primi prodotti PCIe 5.0 già quest’anno in questi ambiti, ma verosimilmente si andrà al 2020.

Il PCIe 4.0 dovrebbe soddisfare per molti anni le necessità di PC desktop e notebook, d’altronde il PCIe 3.0 è ancora sufficiente per molti versioni, quindi prendete l’evoluzione del PCI Express come il naturale proseguimento di un cammino, senza crucciarvi troppo per l’imminente ratifica della versione successiva dello standard.

MSI parla dalle carenza di CPU Intel e spiega perché non ha puntato (ancora) su AMD

di Manolo De Agostini

Dal primo gennaio MSI ha un nuovo amministratore delegato, Charles Chiang, un veterano dell’azienda che ha lavorato come vicepresidente esecutivo per le piattaforme desktop e ha ricoperto alcuni ruoli nell’ambito della ricerca e sviluppo. Nel corso di un’intervista con i colleghi di Tom’s Hardware USA, Chiang ha parlato di alcuni dei temi di più stretta attualità, dalla carenza di chip Intel all’uso delle soluzioni di AMD, dalla competizione crescente con le altre aziende fino alla guerra commerciale che vede Stati Uniti e Cina alla prova di forza.

Per quanto riguarda i ben noti problemi di Intel nel tenere il passo della domanda di mercato con la produzione di microprocessori, Chiang ha spiegato che MSI è riuscita a ottenere un numero sufficiente di CPU per tutti i propri sistemi, siano essi portatili o desktop, malgrado Intel abbia fissato delle priorità nell’evadere gli ordini: prima i chip per datacenter e notebook, e infine le CPU desktop.

“Siamo concentrati sui prodotti di fascia alta e abbiamo la priorità nella fornitura di CPU”, ha affermato il dirigente. “Intel dice a tutti che ha la priorità di fornire chip di fascia alta. [Dicono] ‘iniziamo prima dai datacenter, poi passiamo al settore mobile e in ultimo i chip desktop’. Così forniscono prima i processori H Core i9 e i7, poi le soluzioni U e successivamente tocca ai desktop”.

Intel ha dichiarato più volte di aver dato priorità alla produzione di CPU Xeon e Core di fascia alta, ma l’azienda non ha confermato o smentito la scelta di produrre prima i chip mobile di quelli desktop. Malgrado MSI non abbia faticato troppo a ottenere i chip per i propri sistemi, la scarsità di CPU a basso costo ha avuto un effetto negativo sulle vendite delle schede madre dell’azienda.

“Se questa carenza di CPU ha colpito MSI, devo dire che è avvenuto sul fronte delle motherboard e ci ha colpito duramente”, ha confessato Chiang, aggiungendo che la scelta di Intel di ritornare alla produzione a 22 nanometri per i chipset ha creato confusione tra i partner. “Per le schede madre è stato davvero critico lo scorso anno. Hanno un problema con i 14 nanometri. Perciò Intel è ritornata ai 22 nanometri e ha continuato a cambiare la propria roadmap. Non abbiamo un’immagine chiara della loro offerta”. A risentirne non solo la fascia bassa, ma anche quella alta, con le vendite di schede madre Z390 sotto le attese a causa della priorità molto bassa data alla produzione dei chip desktop.

Fortunatamente secondo Chiang il peggio è alle spalle e la produzione sta aumentando grazie agli investimenti fatti da Intel. Ciò però non significa che tutto tornerà alla normalità nel breve periodo, anzi la carenza di chip durerà almeno fino all’ultimo trimestre dell’anno. “Il Q1 è ancora una sfida. Nel Q2 andrà meglio, nel Q3 decisamente meglio e nel Q4 penso non sarà più un problema. In generale il periodo peggiore per la fornitura di CPU Intel è stato superato”. I problemi produttivi di Intel hanno aperto una finestra di opportunità per la rivale AMD in ambito desktop, tanto che MSI ha venduto molte più schede madre per le CPU AMD.

“Tutti sanno che le CPU Ryzen sono disponibili e AMD ha guadagnato molte quote di mercato a causa dello shortage di Intel. Dato che Intel non ha ritenuto prioritario fornire CPU Pentium, Celeron, di fascia bassa e media, questo ha permesso ad AMD di aumentare la propria quota di mercato sui desktop. Perciò stiamo facendo molto bene sul fronte AMD. Abbiamo una grande fetta di mercato di motherboard AMD, il che turba molto Intel“, ha affermato Chiang aggiungendo, “ma dico loro (Intel, ndr) che una volta risolto il problema vedremo come potremo recuperare la loro quota”.

Sempre in tema AMD, Chiang ha spiegato che l’azienda è reticente nell’usare le sue CPU in notebook e desktop per tre ragioni principali:

  • Sperimentazione: MSI è una società più piccola di altre e non può permettersi di sperimentare con piattaforme diverse in questo momento. “Dico sempre che non siamo abbastanza grandi da rendere le cose troppo complicate”, ha dichiarato Chiang citando tutte le diverse serie di portatili gaming MSI, dalla serie GT di fascia alta a quella budget GL, sottolineando che la lineup è già piuttosto complessa. Ha inoltre asserito che, dato l’interesse di MSI nell’ottimizzare l’esperienza utente, scegliere AMD aggiungerebbe un ulteriore livello di complessità.
  • Brutte esperienze passate: MSI ha usato le CPU AMD nei propri sistemi in passato, ma a quanto pare ha avuto una brutta esperienza. “In quel momento i loro prodotti non erano così buoni e il loro supporto non era soddisfacente”, ha detto Chiang.
  • Il rapporto con Intel: Chiang ha affermato che dato il forte supporto da parte di Intel durante lo shortage, sarebbe imbarazzante dire a Intel di aver scelto di uscire con un prodotto con tecnologia AMD. “È molto difficile per noi dirgli ‘ehi, non vogliamo usare Intel al 100%’, perché ci hanno dato un supporto molto buono”. Chiang, tuttavia, non ha fatto menzione di pressioni da parte di Intel a lui o all’azienda.

Timori a parte, Chiang ha spiegato che sta considerando molto attentamente l’uso delle CPU AMD nel prossimo futuro. “So che Ryzen e Ryzen Mobile stanno per cambiare le carte in tavola. Continuiamo a valutarli, ma non abbiamo un piano o una data specifica su quando faremo qualcosa con AMD”.

Parlando invece della guerra commerciale tra Stati Uniti e Cina, Chiang ha detto che MSI ha subito l’impatto dalle tariffe imposte da Trump sui beni elettronici provenienti dalla Cina, con un aumento dei prezzi tra il 5% e il 10%. Il CEO ritiene però che i consumatori che acquistano o costruiscono un nuovo PC ad alcuni anni di distanza probabilmente non noteranno la differenza.

“Quante volte le persone comprano un portatile? Quanto spesso acquistano un desktop o un monitor, che sia gaming o meno? Forse ogni due, tre o quattro anni. Quindi la loro precedente [esperienza] di acquisto è forse di tre, quattro anni fa. Perciò se si aggiunge il 5/10% non ne subiscono l’impatto”. A patire di più secondo il dirigente sono le grandi aziende che acquistano nuovi computer ogni anno.

Alcuni produttori stanno trasferendo la loro produzione fuori dalla Cina in paesi come il Vietnam, la Tailandia e Taiwan, ma Chiang si è detto riluttante a investire molto capitale nel tentativo di risolvere un problema tariffario che potrebbe finire in ogni momento.

Per quanto concerne i piani di crescita di MSI, il CEO ha dichiarato che non intende cambiare troppo il focus dell’azienda sul gaming e il mercato prosumer / professionale. “In termini economici non possiamo competere con le aziende più grandi, ma abbiamo visto che i consumatori richiedono quel tipo di prodotti ad alte prestazioni che sono il nostro cuore. Siamo molto bravi in questo”, ha spiegato.

“Abbiamo iniziato con il gaming circa cinque o sei anni fa e continuiamo a crescere ogni anno. Ci chiediamo sempre qual è la prossima area in cui possiamo espanderci. Sicuramente non è quella dei PC economici o business. Lo scorso anno pensavamo a cosa offrire al pubblico prosumer e ai creatori di contenuti e abbiamo parlato con Nvidia e Intel. Ed è così che abbiamo la serie Prestige“.

Chiang crede così tanto nella nuova serie che secondo lui potrebbe riuscire a sottrarre pubblico ad Apple. “Vogliamo creare un ecosistema di prodotti Prestige. Possiamo ottenere una buona esperienza utente e forse dirottare l’1/2% di utenti Apple su di noi. Per noi quello sarebbe già un grande mercato”.

G-Sync su schermi FreeSync, ma non per le GPU Maxwell e precedenti

di Manolo De Agostini

Dopo aver annunciato l’estensione del G-Sync ai monitor FreeSync, ovvero il supporto alla tecnologia Adaptive Sync (seppur parziale e per molti versi non garantito), Nvidia ha chiarito sul proprio forum che questa possibilità è esclusiva delle schede video Pascal e Turing, cioè delle serie GTX 1000 e RTX 2000. “Non abbiamo piani di aggiungere supporto per Maxwell e architetture precedenti“, si legge.

Le soluzioni GeForce GTX 900 e precedenti non potranno quindi sincronizzare gli fps prodotti dalla GPU con il refresh rate del monitor FreeSync/Adaptive Sync, andando così a eliminare gli artefatti noti come stuttering, tearing e input lag. Eppure il G-Sync nasce con la serie GTX 600, cioè con l’architettura Kepler. Siamo quindi di fronte a una scelta commerciale? Di primo acchito verrebbe da pensarlo, ma non ne siamo del tutto certi.

Bisogna infatti tenere conto che l’Adaptive Sync è stato introdotto con la specifica DisplayPort 1.2a, mentre quanto riguarda l’HDMI è la versione 2.1 ad aver guadagnato il VRR, Variable Refresh Rate. Le architetture Maxwell e precedenti non supportano né una né l’altra specifica.

Nvidia avrebbe potuto ovviare il qualche modo ed estendere la compatibilità? Mai dire mai certo, ma probabilmente no. All’apparenza una motivazione tecnica sembra esistere, senza contare che l’estensione del supporto ad altre generazioni di GPU avrebbe richiesto un’enorme sforzo per quanto concerne i test di compatibilità tra schede video, tecnologia e monitor FreeSync / Adaptive Sync.

Chipset X570 per CPU Ryzen 3000, AMD sta curando direttamente lo sviluppo?

di Manolo De Agostini

Nelle scorse settimane AMD ha annunciato che i processori Ryzen di terza generazione arriveranno a metà anno, senza entrare nello specifico per garantirsi maggiore margine di manovra sulle tempistiche. D’altronde gli imprevisti sono sempre dietro l’angolo (ma facciamo le corna!). Il sentore è comunque che vedremo il debutto della nuova generazione di CPU a 7 nanometri al Computex di Taipei di giugno.

Benché la nuova generazione di processori sia retrocompatibile con le piattaforme giunte sinora sul mercato, siamo certi che la casa di Sunnyvale presenterà una nuova gamma di chipset in grado di permettere ai nuovi Ryzen di esprimersi al meglio. Come accennato nella notizia in cui vi abbiamo informato sul possibile supporto PCIe 4.0 anche sulle “vecchie schede madre”, sembra che la nuova serie di chipset 500 non sarà progettata da ASMedia.

La stessa voce di corridoio è stata raccolta anche da Gamer Nexus, secondo cui “AMD progetterà il chip da sé piuttosto che rivolgersi ad ASMedia per assistenza. AMD sta migrando parte dell’I/O di EPYC su X570, facendo aggiornamenti per le CPU Ryzen 3000″.

Un’altra “conferma” di quanto scritto in precedenza riguarda i consumi, con l’X570 che richiederebbe circa 15 watt anziché i 6-8 watt dell’X470 in virtù del maggior throughput e del PCIe 4.0. Non dovrebbe comunque esserci alcun problema per quanto concerne la dissipazione dal calore, il chipset funzionerà tranquillamente anche ad aria, anche se i produttori di motherboard adotteranno heatsink a fini estetici – come sempre.

Uno dei tanti temi ancora “oscuri” è proprio il citato supporto al PCIe 4.0. Secondo Gamer Nexus mentre è scontato il supporto da parte della CPU per pilotare almeno le GPU, non è chiaro se anche i nuovi chipset supporteranno lo standard. “Alcune delle nostre fonti affermano che il PCH sarà probabilmente in grado di fornire solo il PCIe 3.0 agli slot”, si legge.

Una delle cose da capire in futuro è se la piattaforma potrà assicurare il PCIe 4.0 anche agli SSD, che dovrebbero beneficiarne decisamente di più delle GPU. Come scritto nelle scorse settimane, i produttori di controller per gli SSD stanno mettendo a punto proprio soluzioni PCIe 4.0 che dovrebbero arrivare sul mercato entro l’anno. AMD a ogni modo starebbe ancora finalizzando il chipset X570, quindi per il momento ogni discorso lascia il tempo che trova.

Per quanto riguarda l’offerta, dopo l’X570 dovrebbe arrivare un B550 per piattaforme più economiche, ma ciò avverrà probabilmente dopo circa 3 mesi, probabilmente a settembre se l’X570 debutterà nello stesso momento dei Ryzen 3000.

Nessun problema di produzione per le Radeon VII

di Antonino Caffo

AMD ha dovuto smentire, frettolosamente, nelle ultime ore le voci secondo cui la sua scheda grafica di ultima generazione, Radeon VII, scarseggerà al momento del lancio sul mercato.

Leggi il resto dell’articolo

GPU AMD Navi, c’è chi pronostica la presentazione all’E3 2019 di giugno

di Manolo De Agostini

Saremmo ingiusti se dicessimo che Lisa Su e AMD ci hanno delusi al CES 2019 illustrandoci le novità in arrivo nel prossimo futuro, ma tra gli appassionati (complici alcune indiscrezioni pre-conferenza) è serpeggiato un leggero malumore per l’assenza di informazioni sulla prossima architettura grafica Navi.

AMD ha fatto capire che ci sarà un rinnovamento importante dell’offerta di GPU nei prossimi mesi, ma non ha voluto entrare troppo nel merito, se non confermando l’adozione del processo produttivo a 7 nanometri. Sarà forse un’altra conferenza, l’E3 2019, a farci conoscere le vere avversarie delle proprie Nvidia Turing? Le ultime indiscrezioni puntano proprio in tale direzione.

Una fonte ovviamente anonima avrebbe confessato al sito Red Gaming Tech che Navi non sarà annunciata fino all’E3 2019 (11-13 giugno). “Le schede arriveranno sul mercato un mese dopo”, si legge e AMD sarebbe piuttosto fiduciosa della loro competitività. La conferenza losangelina potrebbe essere il giusto palcoscenico per AMD non solo per il pubblico prettamente rivolto al gaming, ma anche perché Navi dovrebbe essere il cuore della PS5 e della futura Xbox. È vero, Sony non sarà presente alla conferenza, ma di certo le nuove console saranno uno dei tanti temi.

Per quanto riguarda le prestazioni, Rad Gaming Tech riporta che secondo la fonte AMD starebbe puntando alla fascia bassa e media, il che rafforza le precedenti indiscrezioni di un’architettura votata a mandare in pensione Polaris più che Vega, almeno inizialmente, con possibili prestazioni competitive probabilmente con le RTX 2060/2070.

Sembra che per le soluzioni Navi di fascia più alta bisognerà attendere il 2020, anno in cui potrebbe arrivare anche Arcturus, nome accostato al dopo Navi, anche se ufficialmente non è confermato. Non resta ovviamente che attendere, ma per ora queste sono le ultime. È chiaro che AMD ha molte cose che bollono in pentola nel settore grafico, ma lo stesso si può dire per Nvidia. E nel 2020 arriverà Intel. Abbiamo di fronte un biennio piuttosto esaltante.

Sapphire prevede il ritorno del mining con le GPU grazie a Grin. Arriva una RX 570 con 16 GB di memoria

di Manolo De Agostini

Molti di voi ricorderanno come un incubo il fenomeno del mining di criptovalute con le GPU che ci ha accompagnato nel 2017 e per una parte del 2018. Schede video introvabili, prezzi alle stelle. Qualcuno, come i produttori di schede video, ricorda quel periodo di “vacche grasse” in modo decisamente diverso dai consumatori, tanto che Sapphire Technology sembra interessata a “riaccendere” il fenomeno, o quantomeno ne pronostica un possibile ritorno alla ribalta.

Prima di cadere dalla sedia però, un po’ di contesto. Partiamo dal prodotto. Sapphire ha annunciato il prossimo arrivo di una Radeon RX 570 con 16 GB di memoria, una soluzione pensata prettamente per la nuova criptovaluta Grin, un’implementazione di MimbleWimble, un protocollo blockchain proposto nel 2016 da un anonimo dal nickname “Tom Elvis Jedusor” – qualcuno avrà già identificato i riferimenti a Harry Potter.

In un post su Medium intitolato “Why GPU mining is making a comeback with Grin!“, il vicepresidente del marketing globale di Sapphire Technology, Adrian Thompson, scrive che la nuova scheda avrà un costo moderato e grazie a una versione dell’algoritmo di Grin “amica delle GPU”, la RX 570 16GB diventerà sostanzialmente “una macchina stampa soldi”. Grin appartiene al filone delle cosiddette “privacy coin”, che si concentrano su sicurezza e anonimità delle transazioni e puntano a risolvere le debolezze delle criptovalute esistenti.

“Come le altre crypto, le transazioni sono validate e poi aggiunte alla blockchain tramite il processo del mining. Per Grin ciò significa risolvere un algoritmo PoW (proof of work) chiamato Cuckoo Cycle, legato alla memoria, con i miner ricompensati in valuta per i loro sforzi”, spiega Thompson.

Grin sarà disponibile in due forme, un algoritmo chiamato Cuckaroo resistente al mining con gli ASIC ma gestibile da CPU e GPU, e uno chiamato Cuckatoo che invece permetterà agli ASIC di esprimersi al meglio. La profittabilità di ciascuno algoritmo cambierà nel tempo, con la forma resistente agli ASIC che sarà inizialmente più vantaggiosa al lancio della criptovaluta. “La buona notizia per i miner con le GPU è che almeno inizialmente il 90% delle ricompense sarà riservata all’algoritmo Cuckaroo resistente agli ASIC. Questo dovrebbe rallentare la crescita del mining con gli ASIC e incoraggiare un mercato del mining decentralizzato”, scrive Thompson.

“L’algoritmo Cuckaroo subirà un fork ogni sei mesi per contrastare il dominio degli ASIC, mentre Cuckatoo non subirà fork. Le ricompense scenderanno del 3,75% al mese fino a quando ci saranno ritorni vicino allo zero dopo due anni. A quel punto, dovrebbe essere disponibile una gamma di miner ASIC per fornire la concorrenza e mantenere l’attività decentralizzata”.

La nuova RX 570 di Sapphire, con i suoi 16 GB di memoria (che saranno il minimo per Cuckatoo nel 2020 a detta di Thompson), può “minare” entrambe le forme dell’algoritmo per almeno 2 anni, passando tra le due in base ai mutamenti di difficoltà e profittabilità, un processo detto “dual mining”. L’algoritmo Cuckatoo di Grin richiede 11 GB di memoria, mentre Cuckaroo (più amichevole per le GPU) necessita di oltre 5,5 GB di memoria grafica, da qui i 16 GB di VRAM sulla scheda.

Sapphire ha quindi deciso di scommettere su Grin e pronostica un ritorno del mining con le GPU. L’azienda ha da una parte tutto il diritto di provarci e fare le proprie scommesse, ma in tutta onestà speriamo che fallisca. Non per essere cattivi, ma da appassionati di computer e videogiochi non ci piacerebbe vedere il ritorno del mining di criptovalute con le GPU e il suo carico di conseguenze per l’intero settore.

Chi fosse interessato ad approfondire le basi di Grin, può farlo dal sito ufficiale.

AMD sperimenta con DirectML per sviluppare qualcosa di simile al DLSS di Nvidia

di Marco Pedrani

Overclock3D ha ribattuto un’intervista fatta da un sito nipponico ad Adam Kozak, senior manager di AMD, in cui si paventa il supporto da parte della nuova Radeon VII di DirectML, estensione delle DirectX dedicata al machine learning. Kozak ha spiegato che AMD sta sperimentando una versione di prova dell’SDK di DirectML proprio con l’ultima nata, registrando “eccellenti risultati”.

DirectML è una tecnologia (ancora agli albori) che sfrutta l’intelligenza artificiale e che permetterebbe di migliorare la resa grafica nei videogiochi. Similmente alla tecnologia DLSS (Deep Learning Super Sampling) di Nvidia, DirectML userebbe un algoritmo in grado sia di migliorare le prestazioni che di fornire immagini di qualità superiore rispetto a quelle ottenute con TAA (Temporal Anti Aliasing).

La tecnologia supporta tutto l’hardware conforme a DirectX 12 ed è in grado di sfruttare le capacità di accelerazione hardware presenti sulle moderne architetture delle GPU, senza necessariamente richiedere unità dedicate come i Tensor core. “Si possono fare cose vicine a DLSS con un approccio simile al GPGPU con la nostra GPU”, ha aggiunto Kozak facendo intuire che la nuova Radeon VII riuscirebbe quindi a fornire immagini della stessa qualità di quelle ottenute usando DLSS.

Differenze tra ML Super Sampling (sinistra) e bilinear upsampling (destra)

Microsoft ha già mostrato in passato il potenziale del machine learning dei videogiochi: quando è usato per aumentare la risoluzione di un’immagine – in questo caso da 1080p a 4K – riesce a fornire un risultato finale più nitido e con meno aliasing, come dimostra l’immagine qui sopra.

Tra DirectX Raytracing e DirectML, è chiaro che tra poco nel gaming non conteranno più solo le pure capacità di shading. Nvidia, AMD e Intel dovranno necessariamente sviluppare nuovo hardware in grado di gestire inferenza, ray tracing e shading tradizionale, e questo porterà inevitabilmente ad un’evoluzione dei giochi come li conosciamo oggi.

Il supporto di Radeon VII a DirectML, seppur al momento solo in via sperimentale, è un passo importante per AMD e ci fa sperare bene per il futuro, in particolare per le nuove GPU basate su architettura Navi che ci aspettiamo debuttino nel corso dell’anno.

Nvidia porta G-Sync sui monitor FreeSync: buona notizia o sonora sconfitta?

di Manolo De Agostini

Una grande bella notizia per molti, una pessima per altri e tanti dubbi su cui interrogarsi. Di cosa stiamo parlando? Del recente annuncio della compatibilità di G-Sync con alcuni monitor FreeSync (qui i driver dedicati). Per l’esattezza 12 su oltre 400 testati. La Sora Lella direbbe “Annamo bene, proprio bene!“.

Il CEO Huang è salito sul palco, ha spiegato come Nvidia abbia fatto molto (e nessuno lo mette in dubbio) per migliorare l’esperienza di gioco degli appassionati, fino a pochi anni fa spesso infastidita da problemi noti come stuttering, tearing e input lag. La direzione che però ha preso il suo intervento ci ha lasciato un po’ di stucco, perché ha spiegato fondamentalmente che la stragrande maggioranza degli schermi Adaptive Sync (e quindi per estensione FreeSync) è praticamente di scarsa qualità. Nelle dichiarazioni post conferenza si è poi spinto a dire che “il FreeSync non funziona“.

Eppure sono molti i produttori di schermi che lo supportano, di schermi ce ne sono a centinaia e sono migliaia le persone che giocano senza problemi. Sono tutti impazziti? Probabilmente no.

Dobbiamo ricordare che il G-Sync è potenzialmente migliore del FreeSync, in quanto abbina un modulo hardware dedicato a una parte software ottimizzata. L’unione di hardware e software dà la possibilità di fare una migliore calibrazione della tecnologia, al fine di ottenere un’esperienza migliore. Su questo non ci piove, mentre la controparte (Adaptive Sync / Freesync) è rappresentata da uno standard che un produttore può implementare, e niente più.

Il punto è: quanto è migliore il G-Sync rispetto al FreeSync? Vale il prezzo decisamente superiore richiesto per un monitor G-Sync rispetto a un analogo FreeSync? Per darvi un’indicazione, un monitor Freesync di qualità soddisfacente (24″, 1080p) può essere acquistato, oggi, a circa 200 / 250 euro. Il prezzo d’ingresso per un monitor G-Sync con un pannello dalle prestazioni simili, se non identiche, parte da una cifra doppia. Mediamente il sovrapprezzo è di circa 200 euro, cifra che si assottiglia, anche fino a dimezzarsi, sui modelli top di gamma nell’ordine dei 1000 euro.

Parafrasando quindi la nostra domanda: un utente dovrebbe spendere 200 euro in più in un monitor G-Sync, o magari reinvestire quei soldi in altri componenti? O ancora, non investirli proprio e risparmiarli?

Per noi la differenza nell’esperienza non è tale da giustificare il sovrapprezzo richiesto da Nvidia. E troviamo conferma in molti utenti che proprio in questi giorni stanno esprimendo i loro giudizi in forum e social network, con i più “rumorosi” che hanno acquistato pochi giorni o mesi prima di questo annuncio un monitor G-Sync.

C’è un’altra domanda che ci stiamo facendo in questi giorni: perché Nvidia ha deciso di aprirsi al Freesync? Non abbiamo una risposta definitiva, ma soltanto ipotesi, e per ora la più gettonata sembra essere una silenziosa ammessa di sconfitta per il G-Sync. Forse la tecnologia non offre così tanto in più rispetto alla controparte, come detto, o forse il costo d’implementazione è insostenibile, forse le vendite sono molto poco incoraggianti o forse è un tentativo di rubare clienti alla concorrenza, che si rivolge ad AMD poiché non vuole spendere il prezzo premium richiesto da Nvidia.

Ad ogni modo, far passare la sconfitta, o qualunque motivazione appena descritta, come un dono, ci sembra una grande caduta di stile, sulla falsa riga delle ultime dichiarazioni di Huang, che riassunte suonano come “Guardate come siamo bravi, ecco il G-Sync sui monitor FreeSync. Però solo su 12, perché questa tecnologia non è un granché… ma se volete potete provare ad abilitarla ugualmente”.

Già perché Nvidia permetterà di attivare la tecnologia di sincronizzazione dei frame con il refresh anche sugli altri monitor privi del bollino “G-Sync Compatibile”, il che lascia aperta la possibilità di un supporto ben più ampio dei soli 12 monitor su 400, tanto che qualche dubbio resta sulla volontà di voler davvero ampliare la compatibilità.

Insomma, abbiamo molti dubbi sulla comunicazione scelta dall’azienda, e da consumatori siamo divisi a metà: è indubbio che l’apertura all’Adaptive Sync è una bella notizia per molti consumatori, ma lo è anche il fatto che molti utenti non abbiano preso bene la notizia, soprattutto coloro che hanno acquistato negli ultimi mesi un monitor G-Sync. E soprattutto, quest’annuncio lascia milioni di appassionati in possesso di una scheda video GeForce in una grande ambiguità di fondo. Meglio acquistare un monitor G-Sync spendendo più soldi sperando in un supporto a lungo termine, oppure meglio tentare la fortuna e acquistare uno schermo FreeSync sperando che tutto giri al meglio?

Nvidia GeForce RTX 2060 al debutto e nuovi driver che portano il G-Sync sui monitor FreeSync

di Manolo De Agostini
È disponibile da oggi la GeForce RTX 2060, la nuova scheda video per giocatori di Nvidia che porta la possibilità di gestire il ray tracing in tempo reale in una fascia di prezzo sotto i 400 euro. È la scheda dal prezzo più basso che permette di gestire tanto i giochi tradizionali quanto i nuovi […]

AMD parla dei problemi prestazionali di Threadripper: già al lavoro con Microsoft per sviluppare un fix

di Marco Pedrani
Vi ricordate i problemi prestazionali di Threadripper di cui vi abbiamo parlato qualche giorno fa? Bene, AMD ha finalmente detto la sua e ha fatto sapere che sta lavorando attivamente con Microsoft per rilasciare un fix il prima possibile. Non c’è ancora una data certa, ma l’azienda assicura che oltre al fix saranno incluse anche altre […]

AMD Radeon VII, per il momento non sono previsti modelli personalizzati dai partner (AGGIORNATA)

di Manolo De Agostini
La nuova Radeon VII di AMD, presentata al CES 2019 e in arrivo il 7 febbraio, con tutta probabilità sarà inizialmente disponibile solo come modello di riferimento. Secondo quanto appreso da Igor Wallossek di Tom’s Hardware Germania, al momento i partner non avrebbero in cantiere alcun progetto personalizzato. Non è nemmeno chiaro se AMD permetterà […]

AMD porta in tribunale Mediatek per l’infrazione di brevetti grafici

di Manolo De Agostini
AMD ha denunciato la taiwanese Mediatek, progettista di chip per smartphone e non solo, per violazione diversi brevetti legati ad alcune tecnologie grafiche. A darne notizia è stata Bloomberg tramite la sua agenzia stampa, ma un sommario dei contenuti della “velina” è stato pubblicato da Seeking Alpha – ovviamente aggiorneremo la notizia se arriveranno maggiori informazioni. La […]
❌