Feed RSS Reader

🔒
❌ Gestione sottoscrizioni⤓
Sono disponibili nuovi articoli, clicca qui per caricarli.
Meno recentiRSS feeds

Creare il miglior PC Gaming per Battlefield V, test e consigli

di Marco Pedrani

È passato qualche mese dall’articolo su Monster Hunter: World, ma non ci siamo dimenticati di voi: oggi vediamo quali sono le configurazioni ideali per giocare a Battlefield V. Prima di procedere però, alcune spiegazioni. Abbiamo assemblato tre PC di fasce di prezzo e prestazioni differenti, quelle più vendute e richieste, per vedere come si comportano i vari giochi. L’obiettivo è ricercare le configurazioni migliori per differenti esigenze prestazionali e anche economiche. Di seguito potete vedere come sono composti i tre PC che per semplicità abbiamo definito “economico”, “medio” e “fascia alta”:

CPU Scheda Grafica Memoria RAM SSD
PC economico AMD Ryzen 3 1200 Nvidia GTX 1050 8 GB DDR4
PC medio Intel Core i5-8400 Nvidia GTX 1060 6GB 8 GB DDR4
PC fascia alta AMD Ryzen 7 2700 Nvidia GTX 1070 Ti 8 GB DDR4

Abbiamo indicato solo i componenti che incidono sulle prestazioni. È bene inoltre specificare che queste configurazioni sono state ideate per essere “intercambiabili”, ovvero dove c’è il Ryzen 3 1200 può esservi un Core i3-8100, data la differenza prestazionale contenuta.

Nel corso dell’articolo trovate anche alcuni grafici, che servono come riferimento visivo di massima delle prestazioni del sistema a una data impostazione di gioco.

Una premessa

Come saprete le RTX sono ormai sul mercato da un po’ e di recente è arrivata anche la 2060. Sebbene le schede abbiano iniziato a diffondersi, le “vecchie” GTX sono ancora di gran lunga le più diffuse e sono davvero pochi i giochi in cui il ray tracing è presente e supportato a dovere. Abbiamo quindi deciso, per questo e altri test, di mantenere nelle nostre configurazioni di prova le GPU di vecchia generazione e di testare Battlefield V senza ray tracing, ma in futuro inevitabilmente le RTX sostituiranno – almeno in parte – le GTX che usiamo attualmente.

Giocare in Full HD 60 fps

Per cercare di giocare a questa risoluzione siamo partiti a testare con la configurazione media, composta da un processore Core i5-8400, una GTX 1060 6GB, 8 GB di RAM e SSD. Anche con i dettagli al massimo le prestazioni sono tali da permetterci di giocare a 60 / 70 fps, tuttavia il framerate non è molto stabile: per andare sul sicuro vi conviene abbassare leggermente i dettagli ed impostarli su alto anziché ultra.

Con la configurazione di fascia bassa (PC economico) in cui i componenti principali sono un Ryzen 3 1200 e una GTX 1050 2 GB, giocare in Full HD si è dimostrato più complesso del previsto. Impostando i dettagli ad ultra ci siamo attestati intorno ai 30 fps.

Portando i dettagli grafici a livello medio il titolo diventa giocabile, quindi si arriva ai 60 fps, ma anche qui il framerate è altalenante. È chiaramente possibile impostare tutto al minimo oppure addirittura scendere di risoluzione, ma forse la scelta migliore è optare per una configurazione di fascia media con una GTX 1060, oppure anche una RX 570 o RX 580/590 di AMD.

Giocare a 1440p 60 fps   

In Battlefield V le differenze di prestazioni tra il FHD e il QHD non sono poi così marcate. Con la configurazione di fascia media, i 60 fps a 1440p con dettagli massimi sono purtroppo irraggiungibili, ci si ferma intorno ai 40 fps. Abbassando i dettagli a medio/basso si riescono invece a raggiungere i 60 fps in maniera abbastanza stabile, anche usando una 1060.

Con la configurazione di fascia alta invece a 1440p e dettagli massimi registriamo un frame rate sempre stabile intorno ai 60 fps. Lo stesso risultato si ottiene facilmente anche con una 1080 Ti oppure con le più recenti RTX 2070 e 2060. Abbassando il livello di dettaglio con una di queste quattro schede è possibile anche raggiungere i 100 fps, ma non essendo mai stabili (sarete sempre tra gli 80 e i 100) forse non ne vale troppo la pena.

Giocare in 4K 60 fps

Per il nostro test in 4K abbiamo usato il PC di fascia alta, il sistema con Ryzen 7 2700, con una GTX 1070 Ti, 8 GB di RAM e un SSD. A questa risoluzione e dettagli massimi Battlefield V si ferma tra i 30 e i 40 FPS a seconda dello scenario, risultando quindi sì giocabile ma non molto godibile.

Abbassando invece il livello di dettaglio e impostandolo a medio-basso, è possibile raggiungere i 60 fps anche in 4K. L’impatto grafico è però piuttosto evidente e Battleflied 5 non è un titolo che brilla per stabilità del framerate, quindi non vi consigliamo questa impostazione. Per questo sistema forse il miglior compromesso sta nel mezzo.

Dato che la GTX 1070 Ti si è dimostrata insufficiente per giocare in 4K al top, vi consigliamo di acquistare almeno una scheda come la GTX 1080 Ti o simile (RTX 2080), anche se per spazzare via qualsivoglia problema prestazionale la RTX 2080 Ti sarebbe la scelta migliore – per ora è l’unica scheda video in commercio a garantire prestazioni 4K soddisfacenti con grafica al top.

Cosa abbiamo imparato

La prova di Battlefield V su tre differenti sistemi, a risoluzioni e dettagli diversi, ci ha fatto capire che per giocare in Full HD con impostazioni alte è necessario dotarsi almeno di un computer con Core i5 e GTX 1060 6GB oppure un sistema analogo, che può essere anche un Ryzen 3 con una GTX 1070.

La risoluzione 1440p richiede una dotazione hardware migliore, e per quanto riguarda la scheda video si deve puntare almeno alla GTX 1070 Ti / 1080. Se volete superare i 60 fps con una di queste due schede video, abbassare i dettagli ad alto non inficia molto la qualità grafica del titolo ma vi permette di giocare stabilmente tra gli 80 e i 100 fps. Per giocare in 4K in modo accettabile è evidente che serve un computer potente, con una scheda video che abbia almeno la potenza di una GTX 1080 Ti.

Il consiglio per il processore è di non andare oltre un Ryzen 3/5 o un Core i5, ma se usate diverse applicazioni in background, come i software di chat vocale, e volete giocare a risoluzioni elevate come il 4K, allora forse fareste bene a puntare a qualcosa di più. Per quanto riguarda la RAM, 8 GB sono sufficienti, ma di nuovo se usate tanti software in background forse è meglio puntare ai 16 GB.

In questo articolo ci siamo concentrati nel raggiungere i 60 fps, ma parlando più in generale tutte le schede nel range RTX 2060 – 2070 (compresa la vecchia generazione) sono quelle che si adattano meglio alle varie esigenze: vi permettono infatti di raggiungere un frame rate tra gli 80 e i 100 fps abbassando il livello di dettaglio a 1440p, oppure di giocare in FHD a 144 Hz. se però volete combinare 144 Hz e QHD, vi servirà una 2080.

Infine una nota sulla 2060: è una buona scelta se siete alla ricerca di una nuova scheda video, offre prestazioni equivalenti a quelle della nostra configurazione di fascia alta e in FHD con un livello di dettaglio alto vi permette anche di giocare con il ray tracing attivo mantenendo un framerate accettabile.

Configurazioni consigliate

Per facilitarvi nella scelta del computer per Battlefield V, vi suggeriamo di seguito alcune configurazioni utili per giocare alle impostazioni che desiderate. Per i diversi componenti vi indichiamo modelli specifici, ma potete cambiarli a vostro piacimento, dato che potreste avere preferenze diverse per motherboard, case, alimentatore e RAM. Le nostre rimangono semplici indicazioni di massima.

Full HD e 60 FPS – dettaglio alto
CPU Intel Core i3-8100
AMD Ryzen 3 1200
Scheda Madre Chipset B450
Intel B360
Scheda Grafica AMD Radeon RX 580 8GB
Nvidia GeForce GTX 1060 6GB
Memoria RAM 8 GB DDR4
SSD 500 GB
Alimentatore 500 watt
Case Cooler Master MasterBox K500

 

1440p e 60 FPS – dettaglio alto
CPU Intel Core i5-8400
AMD Ryzen 5 2600
Scheda Madre Chipset B450
Intel B360
Scheda Grafica Nvidia GeForce GTX 1070 Ti
AMD Radeon RX Vega 64
Memoria RAM 8 GB DDR4
SSD 500 GB
Alimentatore 600 watt
Case Cooler Master MasterBox K500

 

Per vostra comodità potete vedere la versione video di questo articolo:

Radeon VII, AMD annuncia la compatibilità immediata con Linux

di Marco Pedrani

Il gaming su Linux sta prendendo sempre più piede, soprattutto grazie alla mossa di Valve di qualche mese fa di integrare un layer di compatibilità in Steam Play, grazie al quale gli utenti del pinguino possono giocare ai vari titoli che nascono solo per Windows. I colleghi di Forbes hanno fatto quattro chiacchiere con un PR di AMD, e a tal proposito sembra che la nuova Radeon VIIin arrivo il 7 febbraiosupporterà da subito i giochi anche su sistema operativo Linux.

La Radeon VII è una scheda dotata di GPU Vega prodotta a 7 nanometri da TSMC. La scheda è dotata di 16 GB di memoria HBM2, di un bandwidth di 1 TB/s e offre il 25% di prestazioni in più rispetto a Vega 64. Stando poi ai benchmark eseguiti da AMD, la Radeon VII dovrebbe competere direttamente con la RTX 2080.

Viste le dichiarazioni rilasciate a Forbes, sembra proprio che AMD non voglia ripetere “l’errore” commesso al lancio della RX590. In quel caso l’azienda fu criticata dall’utenza Linux in quanto, a causa di un cambio dell’ultimo minuto nel vBIOS, la scheda non risultò immediatamente compatibile con il sistema operativo libero. Ci vollero un paio di settimane per avere dei driver funzionanti, e questo non fece che rafforzare l’ipotesi per cui AMD vedesse Linux come sistema operativo di serie B.

Non ci resta quindi che attendere il prossimo 7 febbraio per vedere come si comporterà la scheda e capire se sia davvero in grado di rivaleggiare con la RTX 2080 di Nvidia, tanto su Windows quanto su Linux.

Storia della memoria delle schede video

di Tom's Hardware

Prima di addentrarci nella storia della RAM dedicata alle schede video è bene fare un po’ di chiarezza su cosa sia la RAM e a cosa serve nelle schede video. Se avete letto l’articolo “Storia della RAM“, potete andare avanti senza nessun problema. Se però ve lo siete lasciato sfuggire, vi consigliamo di prendervi una decina di minuti e leggerlo perché ci sono alcune nozioni che vi serviranno..

Passando alla seconda questione, ovvero a cosa serva la RAM per le schede video, la risposta richiede la comprensione di alcuni principi. Quando usiamo un qualsiasi apparecchio elettronico dotato di monitor, le immagini che ci vengono mostrate sono elaborate prima dal processore (CPU) e poi dalla GPU (Graphic Processing Unit). Cosa fanno l’uno e l’altro dipende dal tipo di carico: con i carichi bidimensionali (2D, come il desktop del vostro sistema operativo) il processore svolge gran parte del lavoro mentre la GPU si limita ad applicare i colori; tuttavia, quando abbiamo a che fare con immagini tridimensionali, il processore disegna nello spazio tridimensionale i vertici dei poligoni che compongono la scena, mentre spetta alla GPU assegnare a ogni poligono colore, sfumature, ombre e così via fino agli effetti più pesanti (anti-aliasing, Motion Blur, etc.).

sapphire
Il circuito stampato di una Sapphire AMD R9 Fury – si noti che la RAM HBM1 non risiede sul circuito stampato, come era stato per anni, ma proprio accanto alla GPU

Per fare tutto questo la GPU necessita di una grande quantità di dati, dal framebuffer alle texture, dati che vengono memorizzati proprio nella RAM. Con il passare del tempo, le scene sono diventate sempre più complesse, il numero di poligoni è aumentato insieme alla qualità delle texture e, in ultimo, anche la quantità di frame al secondo che i monitor sono capaci di visualizzare. Tutto questo è stato possibile anche grazie all’evoluzione della RAM che è diventata più capiente, veloce ed efficiente.

Per capire l’importanza che ha la RAM, è utile calcolare la necessità di in termini di banda per gestire alcuni flussi video oggi comuni:

Risoluzione (pixel) [A] Frequenza [B] Milioni di Pixel al secondo [C=A x B] Profondità Colore [D] Miliardi di Bit al secondo [E=C x D]
HD (1280 x 720) 60 Hz 55,3 MPixel/s 24 bit per Pixel (16,7 milioni di colori) 1,33 Gbps
FullHD (1920 x 1080) 124,4 MPixel/s 2,99 Gbps
Ultra HD (3840 x 2160) 497,7 MPixel/s 11,9 Gbps

Se questi vi sembrano numeri elevati, pensate che arriveranno monitor con risoluzione 8K, ovvero quattro volte l’Ultra HD…

Volendo semplificare il discorso per renderlo comprensibile a tutti, pensate alla RAM della scheda video come al serbatoio di un’automobile: più è potente il motore, maggiore è la quantità di carburante di cui necessita. Quindi il serbatoio dovrà essere capiente ed il flusso di carburante dovrà essere garantito da tubi sufficientemente grandi o con una sufficiente pressione.

Per la RAM, la capienza è facilmente misurabile in termini di GigaByte (GB), mentre la velocità di trasferimento è il prodotto dell’ampiezza del bus (il diametro dei tubi di cui sopra) per la frequenza (clock).

Quindi, una scheda video ha bisogno di tanta RAM molto veloce; al contrario, se una scheda video è poco potente, avere tanta RAM non ne migliora le prestazioni così come montare il serbatoio di una Ferrari su un’utilitaria non la farà andare a 300 Km/h.

Quest’ultima considerazione può sembrare banale ma ci sono almeno due motivi per cui dovreste tenerla ben presente valutando un acquisto.

Il primo è che spesso e volentieri produttori e/o distributori realizzano e pubblicizzano schede video (desktop o mobili) puntando sulla quantità di RAM presente, ma questa è un’indicazione fuorviante perché la quantità di RAM non vi dirà quanto è potente la scheda video. Quindi, se state valutando una scheda video dedicata, a parità di GPU è preferibile un modello che ha meno memoria ma più performante (ad esempio 1GB di GDDR5 invece di 2GB di GDDR3).

In seconda battuta, i modelli di fascia media spesso vengono venduti in versioni che usano la stessa memoria ma in diversa quantità. In tal caso, se non cambiate spesso hardware, qualche GB in più di memoria potrebbe garantirvi una maggiore longevità.

PCI Express 5.0 pronto entro il trimestre, ma non è il caso di andare in paranoia

di Manolo De Agostini

Dopo gli annunci di AMD riguardo il supporto al PCI Express 4.0 con le CPU Ryzen di terza generazione e la nuova Radeon VII siete già entrati in “sbattimento” da nuovo standard? Beh, sappiate che entro questo trimestre sarà finalizzato il PCI Express 5.0.

Il completamento della specifica quest’anno era già stato confermato, ma un comunicato del PCI-SIG dello scorso dicembre (passato in sordina), fissa tempi certi. Quasi due mesi fa ormai, il PCI Express 5.0 ha raggiunto la versione 0.9 della specifica, il che significa che ormai tutti i dettagli tecnici sono stati messi nero su bianco e i problemi superati.

I produttori di hardware possono quindi iniziare a pensare a come implementare la nuova interconnessione nei futuri prodotti, anche se in realtà molti lo staranno facendo da tempo. Infatti, la specifica è solitamente sufficientemente solida da garantire lo sviluppo già in versione 0.4.

Il PCI Express 5.0 raddoppia il throughput rispetto al PCI Express 4.0, portando il data rate da 16 a 32 GT/s. Si tratta di un protocollo full-duplex (comunicazione simultanea in entrambe le direzioni), che usa una codifica 128/130 bit e garantisce un bandwidth fino a 128 GB/s grazie a sedici linee da 4 GB/s. L’interconnessione è ancora basata sul rame ed è retrocompatibile con le versioni precedenti.

A qualcuno potrebbe suonare strana quella che sembra un’accelerazione nello sviluppo, ma in realtà a rappresentare un’anomalia è stato lo sviluppo del PCI Express 4.0. Il PCI Express 1.0 è stato completato nel 2002, nel 2006 è toccato alla versione 2.0. Tre anni più tardi è arrivato il PCI Express 3.0. Da allora sono passati ben 7 anni prima dell’ufficialità del PCI Express 4.0. E dopo due anni ecco arrivare il PCI Express 5.0.

L’appassionati di computer non deve però preoccuparsi: passerà diverso tempo prima di vedere il PCIe 5.0 in ambito consumer, con il PCIe 4.0 che dovrebbe godere di vita lunga. Il PCI-SIG si aspetta infatti che i due standard coesisteranno sul mercato per un po’, con la versione 5.0 usata principalmente nel mondo HPC (High Performance Computing) dove il throughput elevato farà la differenza sia per le GPU dedicate all’intelligenza artificiale che per quanto riguarda il networking. Non è da escludere l’arrivo dei primi prodotti PCIe 5.0 già quest’anno in questi ambiti, ma verosimilmente si andrà al 2020.

Il PCIe 4.0 dovrebbe soddisfare per molti anni le necessità di PC desktop e notebook, d’altronde il PCIe 3.0 è ancora sufficiente per molti versioni, quindi prendete l’evoluzione del PCI Express come il naturale proseguimento di un cammino, senza crucciarvi troppo per l’imminente ratifica della versione successiva dello standard.

GPU AMD Navi, c’è chi pronostica la presentazione all’E3 2019 di giugno

di Manolo De Agostini

Saremmo ingiusti se dicessimo che Lisa Su e AMD ci hanno delusi al CES 2019 illustrandoci le novità in arrivo nel prossimo futuro, ma tra gli appassionati (complici alcune indiscrezioni pre-conferenza) è serpeggiato un leggero malumore per l’assenza di informazioni sulla prossima architettura grafica Navi.

AMD ha fatto capire che ci sarà un rinnovamento importante dell’offerta di GPU nei prossimi mesi, ma non ha voluto entrare troppo nel merito, se non confermando l’adozione del processo produttivo a 7 nanometri. Sarà forse un’altra conferenza, l’E3 2019, a farci conoscere le vere avversarie delle proprie Nvidia Turing? Le ultime indiscrezioni puntano proprio in tale direzione.

Una fonte ovviamente anonima avrebbe confessato al sito Red Gaming Tech che Navi non sarà annunciata fino all’E3 2019 (11-13 giugno). “Le schede arriveranno sul mercato un mese dopo”, si legge e AMD sarebbe piuttosto fiduciosa della loro competitività. La conferenza losangelina potrebbe essere il giusto palcoscenico per AMD non solo per il pubblico prettamente rivolto al gaming, ma anche perché Navi dovrebbe essere il cuore della PS5 e della futura Xbox. È vero, Sony non sarà presente alla conferenza, ma di certo le nuove console saranno uno dei tanti temi.

Per quanto riguarda le prestazioni, Rad Gaming Tech riporta che secondo la fonte AMD starebbe puntando alla fascia bassa e media, il che rafforza le precedenti indiscrezioni di un’architettura votata a mandare in pensione Polaris più che Vega, almeno inizialmente, con possibili prestazioni competitive probabilmente con le RTX 2060/2070.

Sembra che per le soluzioni Navi di fascia più alta bisognerà attendere il 2020, anno in cui potrebbe arrivare anche Arcturus, nome accostato al dopo Navi, anche se ufficialmente non è confermato. Non resta ovviamente che attendere, ma per ora queste sono le ultime. È chiaro che AMD ha molte cose che bollono in pentola nel settore grafico, ma lo stesso si può dire per Nvidia. E nel 2020 arriverà Intel. Abbiamo di fronte un biennio piuttosto esaltante.

Sapphire prevede il ritorno del mining con le GPU grazie a Grin. Arriva una RX 570 con 16 GB di memoria

di Manolo De Agostini

Molti di voi ricorderanno come un incubo il fenomeno del mining di criptovalute con le GPU che ci ha accompagnato nel 2017 e per una parte del 2018. Schede video introvabili, prezzi alle stelle. Qualcuno, come i produttori di schede video, ricorda quel periodo di “vacche grasse” in modo decisamente diverso dai consumatori, tanto che Sapphire Technology sembra interessata a “riaccendere” il fenomeno, o quantomeno ne pronostica un possibile ritorno alla ribalta.

Prima di cadere dalla sedia però, un po’ di contesto. Partiamo dal prodotto. Sapphire ha annunciato il prossimo arrivo di una Radeon RX 570 con 16 GB di memoria, una soluzione pensata prettamente per la nuova criptovaluta Grin, un’implementazione di MimbleWimble, un protocollo blockchain proposto nel 2016 da un anonimo dal nickname “Tom Elvis Jedusor” – qualcuno avrà già identificato i riferimenti a Harry Potter.

In un post su Medium intitolato “Why GPU mining is making a comeback with Grin!“, il vicepresidente del marketing globale di Sapphire Technology, Adrian Thompson, scrive che la nuova scheda avrà un costo moderato e grazie a una versione dell’algoritmo di Grin “amica delle GPU”, la RX 570 16GB diventerà sostanzialmente “una macchina stampa soldi”. Grin appartiene al filone delle cosiddette “privacy coin”, che si concentrano su sicurezza e anonimità delle transazioni e puntano a risolvere le debolezze delle criptovalute esistenti.

“Come le altre crypto, le transazioni sono validate e poi aggiunte alla blockchain tramite il processo del mining. Per Grin ciò significa risolvere un algoritmo PoW (proof of work) chiamato Cuckoo Cycle, legato alla memoria, con i miner ricompensati in valuta per i loro sforzi”, spiega Thompson.

Grin sarà disponibile in due forme, un algoritmo chiamato Cuckaroo resistente al mining con gli ASIC ma gestibile da CPU e GPU, e uno chiamato Cuckatoo che invece permetterà agli ASIC di esprimersi al meglio. La profittabilità di ciascuno algoritmo cambierà nel tempo, con la forma resistente agli ASIC che sarà inizialmente più vantaggiosa al lancio della criptovaluta. “La buona notizia per i miner con le GPU è che almeno inizialmente il 90% delle ricompense sarà riservata all’algoritmo Cuckaroo resistente agli ASIC. Questo dovrebbe rallentare la crescita del mining con gli ASIC e incoraggiare un mercato del mining decentralizzato”, scrive Thompson.

“L’algoritmo Cuckaroo subirà un fork ogni sei mesi per contrastare il dominio degli ASIC, mentre Cuckatoo non subirà fork. Le ricompense scenderanno del 3,75% al mese fino a quando ci saranno ritorni vicino allo zero dopo due anni. A quel punto, dovrebbe essere disponibile una gamma di miner ASIC per fornire la concorrenza e mantenere l’attività decentralizzata”.

La nuova RX 570 di Sapphire, con i suoi 16 GB di memoria (che saranno il minimo per Cuckatoo nel 2020 a detta di Thompson), può “minare” entrambe le forme dell’algoritmo per almeno 2 anni, passando tra le due in base ai mutamenti di difficoltà e profittabilità, un processo detto “dual mining”. L’algoritmo Cuckatoo di Grin richiede 11 GB di memoria, mentre Cuckaroo (più amichevole per le GPU) necessita di oltre 5,5 GB di memoria grafica, da qui i 16 GB di VRAM sulla scheda.

Sapphire ha quindi deciso di scommettere su Grin e pronostica un ritorno del mining con le GPU. L’azienda ha da una parte tutto il diritto di provarci e fare le proprie scommesse, ma in tutta onestà speriamo che fallisca. Non per essere cattivi, ma da appassionati di computer e videogiochi non ci piacerebbe vedere il ritorno del mining di criptovalute con le GPU e il suo carico di conseguenze per l’intero settore.

Chi fosse interessato ad approfondire le basi di Grin, può farlo dal sito ufficiale.

AMD sperimenta con DirectML per sviluppare qualcosa di simile al DLSS di Nvidia

di Marco Pedrani

Overclock3D ha ribattuto un’intervista fatta da un sito nipponico ad Adam Kozak, senior manager di AMD, in cui si paventa il supporto da parte della nuova Radeon VII di DirectML, estensione delle DirectX dedicata al machine learning. Kozak ha spiegato che AMD sta sperimentando una versione di prova dell’SDK di DirectML proprio con l’ultima nata, registrando “eccellenti risultati”.

DirectML è una tecnologia (ancora agli albori) che sfrutta l’intelligenza artificiale e che permetterebbe di migliorare la resa grafica nei videogiochi. Similmente alla tecnologia DLSS (Deep Learning Super Sampling) di Nvidia, DirectML userebbe un algoritmo in grado sia di migliorare le prestazioni che di fornire immagini di qualità superiore rispetto a quelle ottenute con TAA (Temporal Anti Aliasing).

La tecnologia supporta tutto l’hardware conforme a DirectX 12 ed è in grado di sfruttare le capacità di accelerazione hardware presenti sulle moderne architetture delle GPU, senza necessariamente richiedere unità dedicate come i Tensor core. “Si possono fare cose vicine a DLSS con un approccio simile al GPGPU con la nostra GPU”, ha aggiunto Kozak facendo intuire che la nuova Radeon VII riuscirebbe quindi a fornire immagini della stessa qualità di quelle ottenute usando DLSS.

Differenze tra ML Super Sampling (sinistra) e bilinear upsampling (destra)

Microsoft ha già mostrato in passato il potenziale del machine learning dei videogiochi: quando è usato per aumentare la risoluzione di un’immagine – in questo caso da 1080p a 4K – riesce a fornire un risultato finale più nitido e con meno aliasing, come dimostra l’immagine qui sopra.

Tra DirectX Raytracing e DirectML, è chiaro che tra poco nel gaming non conteranno più solo le pure capacità di shading. Nvidia, AMD e Intel dovranno necessariamente sviluppare nuovo hardware in grado di gestire inferenza, ray tracing e shading tradizionale, e questo porterà inevitabilmente ad un’evoluzione dei giochi come li conosciamo oggi.

Il supporto di Radeon VII a DirectML, seppur al momento solo in via sperimentale, è un passo importante per AMD e ci fa sperare bene per il futuro, in particolare per le nuove GPU basate su architettura Navi che ci aspettiamo debuttino nel corso dell’anno.

Nvidia porta G-Sync sui monitor FreeSync: buona notizia o sonora sconfitta?

di Manolo De Agostini

Una grande bella notizia per molti, una pessima per altri e tanti dubbi su cui interrogarsi. Di cosa stiamo parlando? Del recente annuncio della compatibilità di G-Sync con alcuni monitor FreeSync (qui i driver dedicati). Per l’esattezza 12 su oltre 400 testati. La Sora Lella direbbe “Annamo bene, proprio bene!“.

Il CEO Huang è salito sul palco, ha spiegato come Nvidia abbia fatto molto (e nessuno lo mette in dubbio) per migliorare l’esperienza di gioco degli appassionati, fino a pochi anni fa spesso infastidita da problemi noti come stuttering, tearing e input lag. La direzione che però ha preso il suo intervento ci ha lasciato un po’ di stucco, perché ha spiegato fondamentalmente che la stragrande maggioranza degli schermi Adaptive Sync (e quindi per estensione FreeSync) è praticamente di scarsa qualità. Nelle dichiarazioni post conferenza si è poi spinto a dire che “il FreeSync non funziona“.

Eppure sono molti i produttori di schermi che lo supportano, di schermi ce ne sono a centinaia e sono migliaia le persone che giocano senza problemi. Sono tutti impazziti? Probabilmente no.

Dobbiamo ricordare che il G-Sync è potenzialmente migliore del FreeSync, in quanto abbina un modulo hardware dedicato a una parte software ottimizzata. L’unione di hardware e software dà la possibilità di fare una migliore calibrazione della tecnologia, al fine di ottenere un’esperienza migliore. Su questo non ci piove, mentre la controparte (Adaptive Sync / Freesync) è rappresentata da uno standard che un produttore può implementare, e niente più.

Il punto è: quanto è migliore il G-Sync rispetto al FreeSync? Vale il prezzo decisamente superiore richiesto per un monitor G-Sync rispetto a un analogo FreeSync? Per darvi un’indicazione, un monitor Freesync di qualità soddisfacente (24″, 1080p) può essere acquistato, oggi, a circa 200 / 250 euro. Il prezzo d’ingresso per un monitor G-Sync con un pannello dalle prestazioni simili, se non identiche, parte da una cifra doppia. Mediamente il sovrapprezzo è di circa 200 euro, cifra che si assottiglia, anche fino a dimezzarsi, sui modelli top di gamma nell’ordine dei 1000 euro.

Parafrasando quindi la nostra domanda: un utente dovrebbe spendere 200 euro in più in un monitor G-Sync, o magari reinvestire quei soldi in altri componenti? O ancora, non investirli proprio e risparmiarli?

Per noi la differenza nell’esperienza non è tale da giustificare il sovrapprezzo richiesto da Nvidia. E troviamo conferma in molti utenti che proprio in questi giorni stanno esprimendo i loro giudizi in forum e social network, con i più “rumorosi” che hanno acquistato pochi giorni o mesi prima di questo annuncio un monitor G-Sync.

C’è un’altra domanda che ci stiamo facendo in questi giorni: perché Nvidia ha deciso di aprirsi al Freesync? Non abbiamo una risposta definitiva, ma soltanto ipotesi, e per ora la più gettonata sembra essere una silenziosa ammessa di sconfitta per il G-Sync. Forse la tecnologia non offre così tanto in più rispetto alla controparte, come detto, o forse il costo d’implementazione è insostenibile, forse le vendite sono molto poco incoraggianti o forse è un tentativo di rubare clienti alla concorrenza, che si rivolge ad AMD poiché non vuole spendere il prezzo premium richiesto da Nvidia.

Ad ogni modo, far passare la sconfitta, o qualunque motivazione appena descritta, come un dono, ci sembra una grande caduta di stile, sulla falsa riga delle ultime dichiarazioni di Huang, che riassunte suonano come “Guardate come siamo bravi, ecco il G-Sync sui monitor FreeSync. Però solo su 12, perché questa tecnologia non è un granché… ma se volete potete provare ad abilitarla ugualmente”.

Già perché Nvidia permetterà di attivare la tecnologia di sincronizzazione dei frame con il refresh anche sugli altri monitor privi del bollino “G-Sync Compatibile”, il che lascia aperta la possibilità di un supporto ben più ampio dei soli 12 monitor su 400, tanto che qualche dubbio resta sulla volontà di voler davvero ampliare la compatibilità.

Insomma, abbiamo molti dubbi sulla comunicazione scelta dall’azienda, e da consumatori siamo divisi a metà: è indubbio che l’apertura all’Adaptive Sync è una bella notizia per molti consumatori, ma lo è anche il fatto che molti utenti non abbiano preso bene la notizia, soprattutto coloro che hanno acquistato negli ultimi mesi un monitor G-Sync. E soprattutto, quest’annuncio lascia milioni di appassionati in possesso di una scheda video GeForce in una grande ambiguità di fondo. Meglio acquistare un monitor G-Sync spendendo più soldi sperando in un supporto a lungo termine, oppure meglio tentare la fortuna e acquistare uno schermo FreeSync sperando che tutto giri al meglio?

AMD Radeon VII, per il momento non sono previsti modelli personalizzati dai partner (AGGIORNATA)

di Manolo De Agostini
La nuova Radeon VII di AMD, presentata al CES 2019 e in arrivo il 7 febbraio, con tutta probabilità sarà inizialmente disponibile solo come modello di riferimento. Secondo quanto appreso da Igor Wallossek di Tom’s Hardware Germania, al momento i partner non avrebbero in cantiere alcun progetto personalizzato. Non è nemmeno chiaro se AMD permetterà […]

AMD porta in tribunale Mediatek per l’infrazione di brevetti grafici

di Manolo De Agostini
AMD ha denunciato la taiwanese Mediatek, progettista di chip per smartphone e non solo, per violazione diversi brevetti legati ad alcune tecnologie grafiche. A darne notizia è stata Bloomberg tramite la sua agenzia stampa, ma un sommario dei contenuti della “velina” è stato pubblicato da Seeking Alpha – ovviamente aggiorneremo la notizia se arriveranno maggiori informazioni. La […]

Adrenalin 2019 Edition 19.1.1, AMD migliora le prestazioni in Fortnite e risolve una valanga di bug

di Manolo De Agostini
AMD ha pubblicato i nuovi driver Radeon Software Adrenalin 2019 Edition 19.1.1. In questa release la casa di Sunnyvale si è concentrata su Fortnite, il popolarissimo titolo di Epic Games, migliorando le prestazioni in Full HD rispetto ai driver 18.12.3 pubblicati il 20 dicembre. Nello specifico, AMD afferma che una RX 580 può raggiungere il […]

Radeon VII, tutti i dettagli e i benchmark con tanti giochi (fatti da AMD)

di Manolo De Agostini
L’altro ieri AMD ha annunciato la nuova Radeon VII, scheda di fascia alta con GPU a 7 nanometri che l’azienda promuove tanto per il gaming quanto per i creatori di contenuti. Molti appassionati si aspettavano qualche informazione riguardo le GPU basate su architettura Navi, ma AMD non è ancora pronta e sebbene qualcosa sia destinato […]

Radeon VII, il CEO di Nvidia sbaglia i modi ma non la sostanza

di Manolo De Agostini
Gli attacchi, o se preferite i “dissing“, non sono una novità nel panorama dell’hardware né in altri ambiti. Anche se a tutti piacerebbe avere un clima sereno e disteso, talvolta i vertici delle varie aziende commentano le novità dei rivali, spesso sminuendole, guadagnandosi (giustamente) i titoloni delle varie testate online. Non è un modus operandi […]

Ryzen 3000 con un massimo di 8 core? No, i 16 core sono possibili, anzi scontati

di Manolo De Agostini
Gli occhi più attenti l’avranno notato. Sul package della CPU Ryzen di terza generazione per computer desktop mostrata al CES 2019 c’è posto per un altro chiplet con 8 core, direttamente sotto quello in alto, accanto all’I/O die a 14 nanometri. Lo spazio c’è e dalle foto sembra anche le interconnessioni. Allora perché AMD ha […]

Nvidia attacca la Radeon VII, scheda video “deludente” secondo il CEO Huang

di Manolo De Agostini
“Deludente“. Così il CEO di Nvidia ha commentato la nuova Radeon VII, la prima scheda video di fascia alta di AMD con GPU a 7 nanometri. “Le prestazioni sono pessime e non offre nulla di nuovo“, ha affermato Huang. “Non c’è ray tracing, non c’è intelligenza artificiale. È un chip a 7 nanometri con memoria […]

AMD Radeon VII arriva il 7 febbraio per competere con la GeForce RTX 2080

di Manolo De Agostini
Nel corso di un keynote al CES 2019 di Las Vegas, il presidente e CEO di AMD Lisa Su ha annunciato Radeon VII, una nuova scheda video di fascia alta per videogiocatori equipaggiata con una GPU Vega prodotta a 7 nanometri da TSMC. Radeon VII, che si può leggere come Radeon Seven (Sette) – ma […]

Cosa attendersi nel settore delle GPU nel 2019

di Manolo De Agostini

Per gran parte del 2018 il mercato delle schede video è rimasto inerte, ma verso la fine dell’anno Nvidia ha introdotto tre nuove soluzioni di fascia alta (GeForce RTX 2080 Ti, RTX 2080 e RTX 2070) basate sull’architettura Turing, di cui potete leggere un approfondimento.

Sempre verso la chiusura dell’anno abbiamo visto l’ultimo sussulto dell’architettura Polaris di AMD, con l’arrivo della Radeon RX 590, una scheda di fascia media che non ha destato particolari emozioni. La speranza è di vedere un 2019 un po’ più movimentato. Ma cosa aspettarsi dai prossimi 12 mesi nell’ambito delle GPU? Facciamo il punto.

AMD punterà sulla fascia mainstream

Ci aspettiamo una AMD maggiormente concentrata a migliorare la propria posizione nella fascia centrale del mercato, con l’arrivo di schede video basate su architettura Navi e il processo produttivo a 7 nanometri di TSMC. Non crediamo invece che riuscirà a insidiare Nvidia nella fascia alta. Probabilmente vedremo schede video con prestazioni vicine alle Radeon RX Vega, ma con consumi inferiori e a prezzi più bassi. Per ora ci aspettiamo novità nella fascia alta da AMD solo nel 2020. Fino ad allora l’azienda punterà a garantire prestazioni sempre migliori a 2560×1440 accoppiando Navi alla memoria GDDR6.

Nvidia completerà l’offerta

Dopo aver portato l’architettura Turing nella fascia alta, Nvidia si occuperà degli altri segmenti di mercato nei prossimi mesi, andando a rinnovare la fascia media e bassa, oltre al comparto delle GPU mobile. Per quanto riguarda le schede video desktop, le ultime voci parlano di una GeForce RTX 2060 presentata a gennaio.

Quella scheda potrebbe essere dotata di RT core per la gestione del ray tracing in tempo reale. Dopodiché potrebbero esserci schede inferiori, appartenenti alla serie GTX 1100, prive di RT core ma con le altre novità dell’architettura Turing. Francamente per ora non abbiamo certezze, quindi non ci resta che attendere per scoprire i piani dell’azienda californiana.

Intel tra la grafica integrata e la voglia di creare attesa

Con la famiglia di schede video Intel Xe in arrivo non prima del 2020, il 2019 di Intel in ambito grafico prevede il rinnovamento della grafica integrata, con la Gen11 attesa sui processori a 10 nanometri entro fine anno. La nuova architettura dovrebbe rappresentare un bel passo avanti rispetto alle soluzioni attuali, con il salto da 24 EU dell’attuale HD Graphics 630 a un totale di 64 EU. Ovviamente ci aspettiamo da Raja Koduri e il suo team maggiori informazioni sulle schede video dedicate, e magari anche una data di debutto.

Come avrete capito, il 2019 sarà un anno interlocutorio, di transizione, anche se comunque denso di novità. Il 2020 e gli anni successivi saranno probabilmente più entusiasmanti visto l’ingresso nel settore di un terzo attore.

L'articolo Cosa attendersi nel settore delle GPU nel 2019 proviene da Tom's Hardware.

AMD fa marcia indietro, ReLive for VR non supporterà i visori Oculus

di Marco Pedrani

Parlandovi dei Radeon Adrenalin 2019 Edition vi avevamo raccontato di ReLive, utility dedicata agli streamer. Una delle novità più importanti della nuova versione è ReLive for VR, tecnologia proprietaria di AMD che consente lo streaming dei vostri giochi VR su visori mobile tramite connessione Wi-Fi. Oggi AMD ha fatto però sapere che, sebbene in prima battuta i dispositivi Oculus fossero supportati, di fatto non sarà così.

ReLive for VR permette agli utenti di fare lo streaming di titoli VR per PC ai visori standalone compatibili usando una scheda grafica Radeon. Un primo elenco di dispositivi supportati includeva HTC Vive Focus, Oculus Go, Samsung Gear VR e Google Daydream, tuttavia ora sembra che non saranno più supportati i visori (attuali e probabilmente futuri) di Oculus, oltre allo strettamente correlato Gear VR.

AMD ha spiegato quanto accaduto con una dichiarazione: “A causa del fatto che ReLive for VR e la funzionalità di streaming wireless richiedono SteamVR, il software non soddisfa i requisiti dell’Oculus Store (dove SteamVR non è disponibile, ndr) e di conseguenza i dispositivi Oculus non saranno supportati”.

Per quanto AMD debba sottostare alle regole, i vari sviluppatori non sono obbligati a farlo; ci sono infatti alcune applicazioni open source che supportano SteamVR su Oculus Go, come ALVR, quindi la possibilità di riuscire comunque a usare ReLive for VR non è del tutto da escludere.

È bene ricordare comunque che lo streaming della realtà virtuale ha dei requisiti ben specifici da soddisfare se non si vuole rovinare l’esperienza di gioco. Oltre alla necessità di una connessione 5 GHz, molti titoli VR per PC richiedono un visore con sei gradi di libertà, requisito soddisfatto solamente dai motion controller di Vive e Oculus. Senza questa funzionalità, sarete costretti a usare un gamepad per evitare di essere limitati nei movimenti all’interno dei giochi.

L'articolo AMD fa marcia indietro, ReLive for VR non supporterà i visori Oculus proviene da Tom's Hardware.

AMD tra pochi giorni farà parte del listino NASDAQ-100

di Manolo De Agostini

Da quando AMD si è rilanciata sul mercato prima come progettista dei chip per le console di Sony e Microsoft e poi con l’offerta di microprocessori Ryzen, Threadripper ed EPYC, abbiamo visto i suoi conti finanziari migliorare costantemente. D’altronde, a un certo punto, aveva quasi toccato il punto di non ritorno. Adesso AMD è un’azienda che produce utili e i cui progetti, da EPYC 2 ai futuri Ryzen, destano attesa nei consumatori e attenzione nei produttori di hardware.

Questa escalation, in particolare negli ultimi due anni, l’ha portata a tagliare un traguardo di prestigio, che certifica tutti gli sforzi fatti dai vertici e dipendenti: a partire dal 24 dicembre, AMD entrerà nel “NASDAQ-100 Index”, composto dalle 100 aziende non legate all’ambito finanziario più grandi – per capitalizzazione di mercato – del listino. Raggiungerà in questo “Olimpo” le rivali Nvidia e Intel, oltre a realtà come Apple, Amazon, Microsoft e Google.

“Il 2018 è stato un altro anno entusiasmante per AMD, con la fornitura di nuovi prodotti ad alte prestazioni per il calcolo e la grafica nei mercati del gaming, dei PC e dei datacenter”, ha dichiarato Ruth Cotter, vicepresidente senior Worldwide Marketing, Human Resources e Investor Relations. “L’adesione all’indice NASDAQ-100 dimostra ulteriormente i progressi compiuti negli ultimi anni per trasformare la società, attuare la nostra strategia a lungo termine e fornire una solida roadmap di prodotti e tecnologia”.

AMD vanta in questo momento una capitalizzazione di mercato che supera i 18 miliardi di dollari. Il prezzo delle azioni dal 2016 è salito di oltre l’804%, raggiungendo un picco di quasi 33 dollari a settembre – ora siamo a circa 18,5 dollari. I conti dell’ultimo trimestre non hanno soddisfatto Wall Street, soprattutto per il calo delle vendite di GPU legato all’evaporazione del mercato del mining di criptovalute.

L’azienda è però ben posizionata per crescere: non solo può sfruttare sul mercato del “fai da te” i prezzi mediamente più alti delle CPU Intel a causa della carenza produttiva per vendere più CPU Ryzen, ma con le CPU EPYC 2 dovrebbe raccogliere nel 2019 maggiori commesse dal mercato dei datacenter.

Il prossimo anno la vedrà inoltre presentare una nuova linea di CPU Ryzen e verosimilmente nuove schede video per il gaming più competitive con l’offerta di Nvidia. AMD continuerà poi a fornire chip per le console di Microsoft e Sony in arrivo nel prossimo futuro.

L'articolo AMD tra pochi giorni farà parte del listino NASDAQ-100 proviene da Tom's Hardware.

Radeon Software Adrenalin 2019 Edition 18.12.3 disponibili, tanti bugfix

di Manolo De Agostini

AMD ha pubblicato i nuovi driver Radeon Software Adrenalin 2019 Edition 18.12.3. A pochi giorni dalla pubblicazione della “release di fine anno”, ormai un classico che ci accompagna da qualche tempo, la casa di Sunnyvale si concede un’ulteriore versione di driver per andare a sistemare alcuni bug presenti nei 18.12.2.

Gli Adrenalin 2019 Edition hanno introdotto tantissime novità, migliorato le prestazioni e aperto ulteriori possibilità ai giocatori e creatori di contenuti in possesso di schede video Radeon. È naturale che una versione di tale portata possa avere qualche magagna.

Se volete conoscere tutti i dettagli dei Radeon Software Adrenalin 2019 Edition vi rimandiamo a questo articolo. Di seguito invece una lista per punti di tutti i correttivi apportati in questi 18.12.3:

  • La rappresentazione della velocità della ventola in Radeon WattMan a volte può riempirsi eccessivamente
  • La frequenza della memoria sui prodotti Radeon RX Vega potrebbe essere bloccata a 800 MHz
  • I profili di gioco con impostazioni della ventola personalizzate potrebbero talvolta rimanere attivi anche dopo aver chiuso il titolo
  • La tab per lo streaming del gioco potrebbe essere assente in Radeon Settings quando i Radeon Software Adrenalin 2019 Edition sono installati due volte su un sistema
  • Radeon ReLive per la realtà virtuale potrebbe mostrare problemi minori di corruzione delle texture per alcuni secondi immediatamente dopo aver collegato un visore
  • I controlli automatici di overclock non visualizzano gli avvertimenti in Radeon Overlay
  • Lo slider dei valori personalizzati per l’intervallo di campionamento dei dati prestazionali potrebbe non abilitarsi
  • Radeon Settings potrebbe talvolta indicare una versione di driver precedentemente installata anche dopo un aggiornamento con successo ai nuovi driver
  • I tasti Applica (Apply) e Fatto (Done) a volte potrebbero sovrapporsi in Radeon Settings o Radeon Overlay

Nella pagina delle note di rilascio trovate anche una lista dei problemi noti ma ancora aperti che saranno risolti verosimilmente nei primi mesi del prossimo anno, quando AMD si concentrerà sul bugfixing e il supporto dei nuovi titoli in uscita. Allo stesso indirizzo ci sono anche i collegamenti per il download.

L'articolo Radeon Software Adrenalin 2019 Edition 18.12.3 disponibili, tanti bugfix proviene da Tom's Hardware.

❌