Feed RSS Reader

🔒
❌ Gestione sottoscrizioni⤓
Sono disponibili nuovi articoli, clicca qui per caricarli.
Ieri — 23 Gennaio 2019RSS feeds

Future GPU Intel, l’approccio alla comunità è giusto. Bisogna estenderlo a tutta l’azienda

di Manolo De Agostini

Ancora non sappiamo se le GPU dedicate di Intel attese per il 2020 saranno in grado di competere ad armi pari con le soluzioni di AMD e Nvidia in tutti i settori fin da subito, anche se lo speriamo vivamente per amor di concorrenza. Quello che però stiamo iniziando a vedere e apprezzare in queste settimane è il nuovo approccio di Intel nel rapporto con la comunità.

Rendersi raggiungibili dagli appassionati, ascoltare i feedback e farne tesoro. È quanto Intel sta facendo su Twitter con l’account Intel Graphics e i profili personali di diversi dirigenti e ingegneri, ma anche con eventi AMA (Ask Me Anything) su Reddit e siti specializzati.

È qualcosa che ci ricorda quanto fatto da AMD nei mesi “pre-Ryzen”, quando l’azienda cercò più volte il contatto con gli appassionati sui canali social e non solo, chiedendo cosa volessero dalle future CPU in modo da mettere a punto non solo l’hardware (moltiplicatore sbloccato su tutta la gamma, socket AM4 stabile per diversi anni, ecc.), ma anche la parte software con strumenti come Ryzen Master.

Uno scambio che poi si è rivelato proficuo per ambedue le parti, ma soprattutto un approccio che appare decisivo quando ti ritrovi a voler mettere piede in un nuovo mercato oppure stai cercando il riscatto, come avvenuto con AMD.

Le similarità tra una strategia e l’altra non sono casuali, ma figlie del fatto con diverse figure chiave di AMD sono passate a Intel proprio per curare il ritorno alle GPU dedicate dell’azienda statunitense, lontana dal settore da moltissimo tempo.

A due persone in particolare va probabilmente ascritto questo avvicinamento alla community: Chris Hook, ex di AMD e capo del marketing del nuovo Core e Visual Computing Group di Intel, e Lisa Pearce, Graphics Software Engineering Director, molto attiva su Twitter. Ma anche Raja Koduri, colui che guida la divisione e stabilisce la visione di Intel nello sviluppo delle GPU, non è da meno.

Nei giorni scorsi Intel ha annunciato l’arrivo di un nuovo pannello di controllo per i propri driver. L’azienda per ora ha diffuso un semplice “teaser trailer”, e in seguito su Twitter ha confermato che la prima release non includerà Linux. Una scelta che ha scontentato alcuni, portando a numerose richieste. Richieste che non sono passate inosservate, tanto che Chris Hook ha esternato di aver avuto molte discussioni sui pannelli di controllo su Linux nelle ore successive, in modo da ottenere quante più informazioni possibili per svilupparlo al meglio.

È quel tipo di approccio che avvicina le persone a un progetto, a un’azienda e che potrebbe convertirle in acquirenti del prodotto finale – sempre che sia effettivamente valido, ma questo è un altro paio di maniche. Ciò che però ci preme dire che è che piacerebbe che questa apertura al confronto e all’ascolto fosse sempre più pervasiva nella casa di Santa Clara. Dopo anni di poca chiarezza e apertura, Intel ha bisogno di cambiare marcia sotto il profilo comunicativo.

Eventi come l’Intel Developer Forum di qualche anno fa permettevano a consumatori e addetti ai lavori di saperne di più sui progetti in via di sviluppo e a Intel di raccogliere il feedback, nonché di avvicinarsi ai sentimenti dei consumatori. Forse quella formula non è più adatta ai giorni nostri, ma un metodo diverso da quello degli ultimi anni non può che fare bene.

Con il progetto delle GPU dedicate, qualcosa che nasce fondamentalmente da zero, è facile attuare una nuova strategia e probabilmente è anche l’unica strada percorribile per creare quell’attesa che talvolta serve attorno a un nuovo prodotto (ripetiamo, sempre che sia valido, altrimenti potrebbe trasformarsi in un boomerang). Ci piacerebbe che questa apertura interessasse prima o poi anche le CPU, in quanto vi sarebbero molte cose da suggerire a Intel. L’ultimo Architecture Day è un passo nella giusta direzione, ma si può fare di più. Attendiamo fiduciosi.

Meno recentiRSS feeds

Gli algoritmi che ti mandano in prigione, o come gli USA stanno diventando un romanzo distopico

di Valerio Porcu

I sistemi di intelligenza artificiale come strumenti per il sistema giudiziario stanno producendo problemi di discriminazione negli Stati Uniti. Ma giudici e procuratori continuano a usarli, e in molti altri paesi i sistemi predittivi si stanno facendo strada nelle aule e tra le forze di polizia.

Come racconta Karen Hao su MIT Technology Review, infatti, il sistema giudiziario statunitense già si avvale di algoritmi predittivi, almeno per due azioni. La prima è per indirizzare le pattuglie, e la seconda per stabilire quanto un accusato potrebbe diventare recidivo. Informazione che poi il giudice usa per stabilire la pena. Inoltre vengono usati sistemi di riconoscimento facciale per identificare i sospetti. L’introduzione di questi strumenti è una conseguenza della “immensa pressione per ridurre l’affollamento carcerario, senza rischiare allo stesso tempo un aumento del crimine”.

Uno scenario fantascientifico, che rimanda a opere come Minority Report, ma invece sono tecnologie già usate più o meno quotidianamente. E questo nonostante siano foriere di problemi anche molto seri. Ci sono infatti diverse ricerche che dimostrano come i sistemi di Intelligenza Artificiale non siano ancora pronti per usi di questo genere.

Il riconoscimento facciale, per esempio, non è ancora abbastanza preciso: è capitato che un parlamentare statunitense fosse scambiato per un noto criminale (due volti ben conosciuti, entrambi afroamericani), ed è successo che una donna fosse accusata di attraversare fuori dalle strisce quando invece davanti alle telecamere era passato un autobus con un cartello pubblicitario.

Ma soprattutto è noto il problema del pregiudizio dovuto ai dataset. Dato che gli algoritmi si nutrono di dati storici, e che questi dati contengono pregiudizi verso uno o più gruppi sociali, va a finire che gli algoritmi ripropongono gli stessi pregiudizi in modo acritico e aprioristico.

Il punto più problematico è la valutazione del rischio, cioè l’idea di affidarsi a un algoritmo per determinare se un accusato diventerà recidivo. Per fare la sua valutazione l’algoritmo viene addestrato con dati storici. Dati secondo cui in certe aree geografiche ci sono più criminali che altrove, o che certi gruppi etnici siano più inclini a violare la legge. I dati però non riflettono la realtà, ma solo l’atteggiamento umano o la conseguenza di condizioni sociali.

Diciamo che i lillipuziani vivono in gran parte sotto la soglia di povertà. Se capita che ci siano molti criminali lillipuziani, dunque, non si può dedurre che ciò sia dovuto alla loro etnia, ma bisogna tenere in conto anche la condizione socioeconomica. Non si può dire che i lillipuziani sono tutti criminali, ma nemmeno che lo siano tutti i poveri; è necessario affrontare la complessità, con considerazioni ad hoc caso per caso.

Sono considerazioni che però gli algoritmi non fanno; anzi, nota Hao, commettono spesso l’errore di trasformare una semplice correlazione in qualcosa di rilevante e rappresentativo. Potrebbero dedurre che visto che Tom è povero e ha taccheggiato un negozio, allora Tom molto probabilmente finirà per diventare un criminale incallito, e consiglierà di imprigionarlo per stare tranquilli.

Si ottiene così il risultato contrario: affidandosi a una macchina si spera di ridurre il peso dei pregiudizi umani del giudice, ma si finisce per aggiungere quelli della macchina stessa – che sono comunque di origine umana. Non accetteremmo mai da un giudice (né da nessun altro) il principio secondo cui “i poveri sono tutti criminali” o sue varianti generalmente incentrate su una minoranza. Eppure stiamo cominciando ad accettare posizioni simili dalle macchine.

“Come risultato”, scrive Hao, “l’algoritmo potrebbe amplificare e perpetrare pregiudizi integrati, e generare ancora più dati alterati alimentando un circolo vizioso. E siccome la maggior parte degli algoritmi è chiusa, è impossibile indagare sulle loro decisioni o dar loro delle responsabilità”. Ed ecco perché secondo alcuni osservatori i sistemi di analisi dei rischi basati sui dati sono “un metodo per legittimare e sanitizzare i regimi oppressivi“.

Al momento, tuttavia, non sembra che ci sia l’intenzione di rinunciare agli algoritmi. Anzi, sembra piuttosto probabile una loro diffusione anche nel resto del mondo. Da questo punto di vista l’Europa potrebbe rappresentare un’area a maggior tutela, grazie al GDPR. Le nuove norme impongono infatti un uso più attento dei dati e che gli algoritmi possano spiegare le proprie decisioni – limiti che in teoria mettono i cittadini al riparo da situazioni distopiche. In teoria.

Creare il miglior PC Gaming per Battlefield V, test e consigli

di Marco Pedrani

È passato qualche mese dall’articolo su Monster Hunter: World, ma non ci siamo dimenticati di voi: oggi vediamo quali sono le configurazioni ideali per giocare a Battlefield V. Prima di procedere però, alcune spiegazioni. Abbiamo assemblato tre PC di fasce di prezzo e prestazioni differenti, quelle più vendute e richieste, per vedere come si comportano i vari giochi. L’obiettivo è ricercare le configurazioni migliori per differenti esigenze prestazionali e anche economiche. Di seguito potete vedere come sono composti i tre PC che per semplicità abbiamo definito “economico”, “medio” e “fascia alta”:

CPU Scheda Grafica Memoria RAM SSD
PC economico AMD Ryzen 3 1200 Nvidia GTX 1050 8 GB DDR4
PC medio Intel Core i5-8400 Nvidia GTX 1060 6GB 8 GB DDR4
PC fascia alta AMD Ryzen 7 2700 Nvidia GTX 1070 Ti 8 GB DDR4

Abbiamo indicato solo i componenti che incidono sulle prestazioni. È bene inoltre specificare che queste configurazioni sono state ideate per essere “intercambiabili”, ovvero dove c’è il Ryzen 3 1200 può esservi un Core i3-8100, data la differenza prestazionale contenuta.

Nel corso dell’articolo trovate anche alcuni grafici, che servono come riferimento visivo di massima delle prestazioni del sistema a una data impostazione di gioco.

Una premessa

Come saprete le RTX sono ormai sul mercato da un po’ e di recente è arrivata anche la 2060. Sebbene le schede abbiano iniziato a diffondersi, le “vecchie” GTX sono ancora di gran lunga le più diffuse e sono davvero pochi i giochi in cui il ray tracing è presente e supportato a dovere. Abbiamo quindi deciso, per questo e altri test, di mantenere nelle nostre configurazioni di prova le GPU di vecchia generazione e di testare Battlefield V senza ray tracing, ma in futuro inevitabilmente le RTX sostituiranno – almeno in parte – le GTX che usiamo attualmente.

Giocare in Full HD 60 fps

Per cercare di giocare a questa risoluzione siamo partiti a testare con la configurazione media, composta da un processore Core i5-8400, una GTX 1060 6GB, 8 GB di RAM e SSD. Anche con i dettagli al massimo le prestazioni sono tali da permetterci di giocare a 60 / 70 fps, tuttavia il framerate non è molto stabile: per andare sul sicuro vi conviene abbassare leggermente i dettagli ed impostarli su alto anziché ultra.

Con la configurazione di fascia bassa (PC economico) in cui i componenti principali sono un Ryzen 3 1200 e una GTX 1050 2 GB, giocare in Full HD si è dimostrato più complesso del previsto. Impostando i dettagli ad ultra ci siamo attestati intorno ai 30 fps.

Portando i dettagli grafici a livello medio il titolo diventa giocabile, quindi si arriva ai 60 fps, ma anche qui il framerate è altalenante. È chiaramente possibile impostare tutto al minimo oppure addirittura scendere di risoluzione, ma forse la scelta migliore è optare per una configurazione di fascia media con una GTX 1060, oppure anche una RX 570 o RX 580/590 di AMD.

Giocare a 1440p 60 fps   

In Battlefield V le differenze di prestazioni tra il FHD e il QHD non sono poi così marcate. Con la configurazione di fascia media, i 60 fps a 1440p con dettagli massimi sono purtroppo irraggiungibili, ci si ferma intorno ai 40 fps. Abbassando i dettagli a medio/basso si riescono invece a raggiungere i 60 fps in maniera abbastanza stabile, anche usando una 1060.

Con la configurazione di fascia alta invece a 1440p e dettagli massimi registriamo un frame rate sempre stabile intorno ai 60 fps. Lo stesso risultato si ottiene facilmente anche con una 1080 Ti oppure con le più recenti RTX 2070 e 2060. Abbassando il livello di dettaglio con una di queste quattro schede è possibile anche raggiungere i 100 fps, ma non essendo mai stabili (sarete sempre tra gli 80 e i 100) forse non ne vale troppo la pena.

Giocare in 4K 60 fps

Per il nostro test in 4K abbiamo usato il PC di fascia alta, il sistema con Ryzen 7 2700, con una GTX 1070 Ti, 8 GB di RAM e un SSD. A questa risoluzione e dettagli massimi Battlefield V si ferma tra i 30 e i 40 FPS a seconda dello scenario, risultando quindi sì giocabile ma non molto godibile.

Abbassando invece il livello di dettaglio e impostandolo a medio-basso, è possibile raggiungere i 60 fps anche in 4K. L’impatto grafico è però piuttosto evidente e Battleflied 5 non è un titolo che brilla per stabilità del framerate, quindi non vi consigliamo questa impostazione. Per questo sistema forse il miglior compromesso sta nel mezzo.

Dato che la GTX 1070 Ti si è dimostrata insufficiente per giocare in 4K al top, vi consigliamo di acquistare almeno una scheda come la GTX 1080 Ti o simile (RTX 2080), anche se per spazzare via qualsivoglia problema prestazionale la RTX 2080 Ti sarebbe la scelta migliore – per ora è l’unica scheda video in commercio a garantire prestazioni 4K soddisfacenti con grafica al top.

Cosa abbiamo imparato

La prova di Battlefield V su tre differenti sistemi, a risoluzioni e dettagli diversi, ci ha fatto capire che per giocare in Full HD con impostazioni alte è necessario dotarsi almeno di un computer con Core i5 e GTX 1060 6GB oppure un sistema analogo, che può essere anche un Ryzen 3 con una GTX 1070.

La risoluzione 1440p richiede una dotazione hardware migliore, e per quanto riguarda la scheda video si deve puntare almeno alla GTX 1070 Ti / 1080. Se volete superare i 60 fps con una di queste due schede video, abbassare i dettagli ad alto non inficia molto la qualità grafica del titolo ma vi permette di giocare stabilmente tra gli 80 e i 100 fps. Per giocare in 4K in modo accettabile è evidente che serve un computer potente, con una scheda video che abbia almeno la potenza di una GTX 1080 Ti.

Il consiglio per il processore è di non andare oltre un Ryzen 3/5 o un Core i5, ma se usate diverse applicazioni in background, come i software di chat vocale, e volete giocare a risoluzioni elevate come il 4K, allora forse fareste bene a puntare a qualcosa di più. Per quanto riguarda la RAM, 8 GB sono sufficienti, ma di nuovo se usate tanti software in background forse è meglio puntare ai 16 GB.

In questo articolo ci siamo concentrati nel raggiungere i 60 fps, ma parlando più in generale tutte le schede nel range RTX 2060 – 2070 (compresa la vecchia generazione) sono quelle che si adattano meglio alle varie esigenze: vi permettono infatti di raggiungere un frame rate tra gli 80 e i 100 fps abbassando il livello di dettaglio a 1440p, oppure di giocare in FHD a 144 Hz. se però volete combinare 144 Hz e QHD, vi servirà una 2080.

Infine una nota sulla 2060: è una buona scelta se siete alla ricerca di una nuova scheda video, offre prestazioni equivalenti a quelle della nostra configurazione di fascia alta e in FHD con un livello di dettaglio alto vi permette anche di giocare con il ray tracing attivo mantenendo un framerate accettabile.

Configurazioni consigliate

Per facilitarvi nella scelta del computer per Battlefield V, vi suggeriamo di seguito alcune configurazioni utili per giocare alle impostazioni che desiderate. Per i diversi componenti vi indichiamo modelli specifici, ma potete cambiarli a vostro piacimento, dato che potreste avere preferenze diverse per motherboard, case, alimentatore e RAM. Le nostre rimangono semplici indicazioni di massima.

Full HD e 60 FPS – dettaglio alto
CPU Intel Core i3-8100
AMD Ryzen 3 1200
Scheda Madre Chipset B450
Intel B360
Scheda Grafica AMD Radeon RX 580 8GB
Nvidia GeForce GTX 1060 6GB
Memoria RAM 8 GB DDR4
SSD 500 GB
Alimentatore 500 watt
Case Cooler Master MasterBox K500

 

1440p e 60 FPS – dettaglio alto
CPU Intel Core i5-8400
AMD Ryzen 5 2600
Scheda Madre Chipset B450
Intel B360
Scheda Grafica Nvidia GeForce GTX 1070 Ti
AMD Radeon RX Vega 64
Memoria RAM 8 GB DDR4
SSD 500 GB
Alimentatore 600 watt
Case Cooler Master MasterBox K500

 

Per vostra comodità potete vedere la versione video di questo articolo:

Intel, l’espansione dei siti produttivi sta per partire

di Manolo De Agostini

Lo scorso dicembre Intel ha annunciato un piano pluriennale di espansione dei siti produttivi situati in Oregon, Irlanda e Israele in risposta anzitutto alle necessità future e in secondo luogo agli investitori, spiazzati dall’attuale incapacità di produrre CPU nei tempi e nelle quantità imposte dal mercato.

In base alle ultime indiscrezioni pubblicate dal quotidiano locale Oregonlive, l’azienda di Santa Clara avrebbe intenzione di avviare i lavori per la creazione di una terza sezione del suo impianto di Hilsboro, noto come D1X, entro la fine di giugno.

Le voci raccolte dal quotidiano non sono però concordi, tra chi ritiene il progetto pronto a prendere il via e chi crede dipenda in parte dalle prospettive economiche mondiali. D’altronde se l’economia dovesse rallentare bruscamente, la domanda di chip potrebbe contrarsi rendendo l’espansione produttiva un parziale autogoal.

Secondo persone dell’industria delle costruzioni, Intel ritiene che serviranno almeno 18 mesi per creare la nuova sezione, a cui si aggiungeranno diversi mesi per l’installazione dei macchinari. Non è chiaro al momento se il nuovo impianto produrrà chip a 10 nanometri oppure se vi realizzerà i futuri processori a 7 nanometri con tecnologia EUV (litografia all’ultravioletto estremo).

A questa espansione si aggiunge il via libera ottenuto nelle scorse settimane dalla commissione finanze del parlamento israeliano per espandere lo stabilimento produttivo di Kiryat Gat, anche noto come Fab 28. Intel investirà 5 miliardi di dollari entro il 2020 e Israele le garantirà un sussidio di 185,5 milioni di dollari alla condizione che l’azienda assuma 250 nuovi dipendenti e spenda 560 milioni di dollari all’anno con venditori o rivenditori locali.

Governo, al via il lavoro degli esperti in Blockchain e Intelligenza Artificiale

di Valerio Porcu

Si sono insediati oggi i due gruppi di esperti nominati dal MISE (Ministero per lo Sviluppo Economico) e dedicati rispettivamente a blockchain e Intelligenza Artificiale. Ai due gruppi è assegnato il compito di elaborare strategie nazionali sui rispettivi temi, che saranno poi inviate alla Commissione Europea.

Il gruppo di esperti sull’Intelligenza Artificiale ha tenuto la sua prima riunione alle 11:00 di questa mattina, mentre alle 13:00 è stato il turno del “Gruppo di esperti in materia di tecnologie basate sui registri distribuiti e blockchain”.

Gli esperti sono stati selezionati dal ministero tra i migliori professionisti dei settori in questione, a cui si sono aggiunti nomi per competenze trasversali, affinché possano offrire un contributo rilevante su temi come l’etica, il lavoro, l’economia e la giurisprudenza.

Dovranno dare seguito ad alcuni punti del programma governativo, inerenti al MiSE e altri ministeri, con l’elaborazione di strategie che saranno poi sottoposte a consultazione pubblica, per poi essere inoltrate alla Commissione Europea.

“Le numerose e qualificate manifestazioni di interesse pervenute nell’ambito della selezione dei Gruppi di esperti dimostrano il patrimonio di conoscenze ed esperienze che abbiamo in Italia sulle tecnologie emergenti. Ringrazio tutti coloro i quali hanno manifestato la propria disponibilità e sono certo che insieme agli esperti selezionati sapremo costruire delle Strategie cruciali per lo sviluppo del nostro Paese all’insegna dell’innovazione”, è stato il commento del Ministro Luigi Di Maio.

Dopo questo primo incontro formale, la prima riunione vera e propria è fissata per il prossimo 8 febbraio, con l’intenzione di produrre risultati già a marzo. I piani poi andranno a integrarsi in quelli Europei che, nell’ambito dell’iniziativa Horizon 2020, hanno l’obiettivo di modernizzare l’intera Unione e traghettarla verso un futuro ad alta tecnologia.

Intelligenza Artificiale ed etica, Facebook ci mette 7,5 milioni di dollari

di Valerio Porcu

Facebook ha avviato un centro di ricerca per l’etica dell’intelligenza artificiale. Si chiamerà Institute for Ethics in Artificial Intelligence e sarà sviluppato in collaborazione con l’Università di Monaco (Germania).

Come altre iniziative simili, il centro di ricerca si occuperà di indagare le implicazioni etiche dell’Intelligenza Artificiale, e soprattutto di sviluppare possibili risposte alle domande generate dalla tecnologia che, secondo tutti gli osservatori, presto innescherà cambiamenti epocali nel mondo.

In particolare, Facebook ha partecipato alla fondazione del centro con 7,5 milioni di dollari, che saranno versati nel corso di 5 anni per finanziare le ricerche. L’istituto userà questo denaro, ma cercherà anche finanziamenti altrove.

“L’Università Tecnica di Monaco (TUM)”, si legge nel comunicato stampa di Facebook, “è una delle migliori al mondo nel campo dell’Intelligenza Artificiale, con attività vanno dalla ricerca di base ad applicazioni come la robotica e la machine intelligence, fino allo studio delle implicazioni sociali dell’AI. L’Institute for Ethics in Artificial Intelligence metterà a frutto l’esperienza accademica, le risorse e la rete globale per portare avanti una ricerca etica rigorosa riguardo le questioni sollevate dalle tecnologie emergenti”.

Dobbiamo dunque attenderci, nei prossimi mesi e anni, che il nuovo centro aggiunga le proprie pubblicazioni a quelle già numerosi su questi argomenti. Che includono questioni come le armi intelligenti, in particolare quelle in grado di decidere autonomamente se e quando colpire; oppure i veicoli a guida autonoma, e il dilemma da gestire in caso di situazioni in cui è impossibile evitare il ferimento o la morte di un essere umano.

Immagine: depositphotos

E ancora, la ricerca etica dovrà occuparsi dell’impatto sul mondo del lavoro – in particolare riguardo al fatto che molti posti di lavoro semplicemente smetteranno di esistere; all’inizio ne nasceranno di nuovi ma a lungo termine sembra certo che il bilancio sarà negativo, faccenda che andrà affrontata da un punto di vista etico, oltre che giuridico e amministrativo.

Che Facebook si imbarchi in un’impresa del genere, poi, è tutt’altro che sorprendente. Questa società è tra quelle maggiormente impegnate nello sviluppo di Intelligenza Artificiale, ed è inoltre occupata in ambiti particolarmente delicati – quelli che riguardano i dati personali delle persone o tecnologie potenzialmente pericolose come il riconoscimento facciale.

L’azienda inoltre ha già avuto la sua (generosa) dose di problemi relativamente ad abusi dei dati personali da una parte, e dall’altra al fallimento degli algoritmi nel riconoscimento di contenuti illegali, violenti, discriminatori o comunque contrari alle linee guida nel social network. E ci sono questioni apparentemente secondarie, ma complesse, come la gestione del copyright e l’uso di filtri automatici – è l’idea della controversa riforma europea del copyright, che ha fatto la sua parte per ravvivare il dibattito sulle “vere” capacità degli algoritmi.

È ovviamente nell’interesse di Facebook, dunque, sviluppare strumenti più potenti – probabilmente l’unico strumento che possa permettere al social network di restare rilevante negli anni a venire. E allo stesso tempo è nel suo interesse svilupparli in maniera da non sollevare critiche: le conseguenze potrebbero, un giorno, diventare ingestibili.

Le questioni etiche sono importanti, soprattutto guardando al domani. Per capire com’è e cos’è l’Intelligenza Artificiale oggi, invece, sarà utile Artificial Intelligence di Alessandro Vitale.

Airbus pensa ad aerei passeggeri senza pilota, ma il 54% dei passeggeri oggi non ci salirebbe

di Alessandro Crea

La guida autonoma sembra essere, e di fatto è, l’inevitabile futuro per automobili, motociclette, camion e persino treni e navi. Eppure per quanto riguarda gli aerei la situazione appare più complessa. Airbus sta pensando per il futuro allo sviluppo di aerei civili destinati al trasporto passeggeri, completamente privi di piloti.

Più facile a dirsi che a farsi nell’immediato, visto che per stessa ammissione dell’azienda, al momento le IA non sono ancora così sviluppate. In effetti già da diversi anni è possibile guidare da remoto i droni militari, ma questa soluzione andrebbe bene solo per velivoli di dimensioni piccole o medie e destinati al trasporto commerciale.

Photo credit - depositphotos.com

Già attualmente inoltre gli aerei di nuova generazione prevedono un largo utilizzo di sistemi di guida automatizzati che affiancano o sostituiscono in toto gli attuali due piloti a bordo, soprattutto nelle operazioni di routine. L’obiettivo di Airbus sarebbe dunque di arrivare a sostituire nel medio termine il co-pilota con un computer, per poi arrivare alla guida completamente autonoma in un periodo più lungo, sufficiente affinché le tecnologie siano mature, ma lo siano anche i passeggeri. Prima però a detta di Grazia Vittadini, direttore tecnico di Airbus, ci sarà da vincere la diffidenza degli enti regolatori e, soprattutto, degli stessi passeggeri.

I vantaggi…

Airbus ci pensa perché ottenere aerei a guida totalmente autonoma porterebbe diversi vantaggi, alcuni molto ovvi, come l’abbattimento dei costi per le compagnie aeree, che non dovrebbero più investire nella formazione dei piloti e nella loro retribuzione. Secondo la società svizzera di servizi finanziari UBS infatti nel 2017 sono stati investiti globalmente sui piloti 300 miliardi di dollari.

Con l’adozione di IA inoltre molto probabilmente si risparmierebbe anche sul carburante, abbattendo i consumi grazie a una gestione ottimale delle rotte e delle fasi di decollo e atterraggio. Inoltre le compagnie aeree hanno sempre più difficoltà nel reperire i piloti, perché il numero di ore di volo negli anni è aumentato e in generale c’è un declino di interesse in questo tipo di carriera.

…e gli svantaggi

Se da un punto di vista tecnologico si tratta solo di una questione di tempo, i veri ostacoli sono altri. Anzitutto la difficoltà nello spiegare correttamente agli enti regolatori le caratteristiche tecniche di un’intelligenza artificiale, al fine di consentirgli di approntare regolamenti ad hoc per questo nuovo tipo di velivoli che coinvolgerebbe aspetti delicatissimi, come la sicurezza dei passeggeri, le responsabilità penali individuali e societarie etc.

Photo credit - depositphotos.com

Ma soprattutto il problema sarebbe di convincere i passeggeri a salire su aerei senza pilota. Secondo una ricerca effettuata sempre da UBS infatti su un campione di 8000 persone intervistate, il 54% ha affermato che non salirebbe mai e poi mai su un aereo a guida autonoma, nemmeno se i voli dovessero costare sensibilmente meno rispetto ad ora. In generale appena il 17% ha espresso entusiasmo per questo tipo di soluzione.

Le IA saranno mai intelligenti quanto Sullenberger?

Un punto però resta fondamentale nello sviluppo di tutte le intelligenze artificiali, che siano destinate alle automobili o ai giganti dell’aria: sviluppare la capacità di pensare fuori dagli schemi. Forse ricordate l’episodio drammatico avvenuto qualche anno fa a New York, quando il pilota Chesley Sullenberger, detto Sully, fece ammarare il proprio Airbus A320-214 in avaria sul fiume Hudson, con una prodezza già entrata nella leggenda delle manovre aeree.

Manovra che, a detta di molti altri piloti esperti, Sully fu in grado di concepire ed eseguire in meno di un minuto solo perché formato alla vecchia scuola dei piloti che impararono a far volare i propri aerei senza l’assistenza tecnologica dei sistemi fly-by-wire e glass cockpit. Non solo, ma questi sistemi, che già attualmente arrivano anche a escludere completamente i piloti dai comandi, non sono assolutamente in grado di eseguire manovre non convenzionali che prevedano ad esempio lo spegnimento di tutti i motori e l’esecuzione di un volo planato. Esattamente quello che fece Sully nel 2009, salvando 155 passeggeri.

Tra i film più divertenti in assoluto sul tema degli aerei c’è sicuramente L’Aereo Più Pazzo del Mondo del trio registico demenziale Zucker-Abrahams-Zucker. Una delle scene più memorabili riguarda proprio il pilota automatico.

Nuance, un 2019 più smart per l’IA

di Filippo Vendrame

Una delle tecnologie chiave del 2018 è stata l’Intelligenza Artificiale, con un aumento esponenziale delle piattaforme, degli strumenti e delle applicazioni dedicate che sono progressivamente entrate nelle aziende e nelle case di tutto il mondo. Secondo quanto ha riportato uno studio dell’Osservatorio Artificial Intelligence della School of Management del Politecnico di Milano, il 56% delle aziende italiane ha già avviato progetti riguardanti l’Intelligenza Artificiale.

Leggi il resto dell’articolo

Facebook finanzia l’AI etica

di Antonino Caffo

Facebook dedicherà 7,5 milioni di dollari alla creazione di The Institute for Ethics in Artificial Intelligence, un centro di ricerca per esplorare argomenti quali la trasparenza digitale e la responsabilità in campo medico quando entra in gioco l’interazione tra l’uomo e l’intelligenza artificiale.

Leggi il resto dell’articolo

MSI parla dalle carenza di CPU Intel e spiega perché non ha puntato (ancora) su AMD

di Manolo De Agostini

Dal primo gennaio MSI ha un nuovo amministratore delegato, Charles Chiang, un veterano dell’azienda che ha lavorato come vicepresidente esecutivo per le piattaforme desktop e ha ricoperto alcuni ruoli nell’ambito della ricerca e sviluppo. Nel corso di un’intervista con i colleghi di Tom’s Hardware USA, Chiang ha parlato di alcuni dei temi di più stretta attualità, dalla carenza di chip Intel all’uso delle soluzioni di AMD, dalla competizione crescente con le altre aziende fino alla guerra commerciale che vede Stati Uniti e Cina alla prova di forza.

Per quanto riguarda i ben noti problemi di Intel nel tenere il passo della domanda di mercato con la produzione di microprocessori, Chiang ha spiegato che MSI è riuscita a ottenere un numero sufficiente di CPU per tutti i propri sistemi, siano essi portatili o desktop, malgrado Intel abbia fissato delle priorità nell’evadere gli ordini: prima i chip per datacenter e notebook, e infine le CPU desktop.

“Siamo concentrati sui prodotti di fascia alta e abbiamo la priorità nella fornitura di CPU”, ha affermato il dirigente. “Intel dice a tutti che ha la priorità di fornire chip di fascia alta. [Dicono] ‘iniziamo prima dai datacenter, poi passiamo al settore mobile e in ultimo i chip desktop’. Così forniscono prima i processori H Core i9 e i7, poi le soluzioni U e successivamente tocca ai desktop”.

Intel ha dichiarato più volte di aver dato priorità alla produzione di CPU Xeon e Core di fascia alta, ma l’azienda non ha confermato o smentito la scelta di produrre prima i chip mobile di quelli desktop. Malgrado MSI non abbia faticato troppo a ottenere i chip per i propri sistemi, la scarsità di CPU a basso costo ha avuto un effetto negativo sulle vendite delle schede madre dell’azienda.

“Se questa carenza di CPU ha colpito MSI, devo dire che è avvenuto sul fronte delle motherboard e ci ha colpito duramente”, ha confessato Chiang, aggiungendo che la scelta di Intel di ritornare alla produzione a 22 nanometri per i chipset ha creato confusione tra i partner. “Per le schede madre è stato davvero critico lo scorso anno. Hanno un problema con i 14 nanometri. Perciò Intel è ritornata ai 22 nanometri e ha continuato a cambiare la propria roadmap. Non abbiamo un’immagine chiara della loro offerta”. A risentirne non solo la fascia bassa, ma anche quella alta, con le vendite di schede madre Z390 sotto le attese a causa della priorità molto bassa data alla produzione dei chip desktop.

Fortunatamente secondo Chiang il peggio è alle spalle e la produzione sta aumentando grazie agli investimenti fatti da Intel. Ciò però non significa che tutto tornerà alla normalità nel breve periodo, anzi la carenza di chip durerà almeno fino all’ultimo trimestre dell’anno. “Il Q1 è ancora una sfida. Nel Q2 andrà meglio, nel Q3 decisamente meglio e nel Q4 penso non sarà più un problema. In generale il periodo peggiore per la fornitura di CPU Intel è stato superato”. I problemi produttivi di Intel hanno aperto una finestra di opportunità per la rivale AMD in ambito desktop, tanto che MSI ha venduto molte più schede madre per le CPU AMD.

“Tutti sanno che le CPU Ryzen sono disponibili e AMD ha guadagnato molte quote di mercato a causa dello shortage di Intel. Dato che Intel non ha ritenuto prioritario fornire CPU Pentium, Celeron, di fascia bassa e media, questo ha permesso ad AMD di aumentare la propria quota di mercato sui desktop. Perciò stiamo facendo molto bene sul fronte AMD. Abbiamo una grande fetta di mercato di motherboard AMD, il che turba molto Intel“, ha affermato Chiang aggiungendo, “ma dico loro (Intel, ndr) che una volta risolto il problema vedremo come potremo recuperare la loro quota”.

Sempre in tema AMD, Chiang ha spiegato che l’azienda è reticente nell’usare le sue CPU in notebook e desktop per tre ragioni principali:

  • Sperimentazione: MSI è una società più piccola di altre e non può permettersi di sperimentare con piattaforme diverse in questo momento. “Dico sempre che non siamo abbastanza grandi da rendere le cose troppo complicate”, ha dichiarato Chiang citando tutte le diverse serie di portatili gaming MSI, dalla serie GT di fascia alta a quella budget GL, sottolineando che la lineup è già piuttosto complessa. Ha inoltre asserito che, dato l’interesse di MSI nell’ottimizzare l’esperienza utente, scegliere AMD aggiungerebbe un ulteriore livello di complessità.
  • Brutte esperienze passate: MSI ha usato le CPU AMD nei propri sistemi in passato, ma a quanto pare ha avuto una brutta esperienza. “In quel momento i loro prodotti non erano così buoni e il loro supporto non era soddisfacente”, ha detto Chiang.
  • Il rapporto con Intel: Chiang ha affermato che dato il forte supporto da parte di Intel durante lo shortage, sarebbe imbarazzante dire a Intel di aver scelto di uscire con un prodotto con tecnologia AMD. “È molto difficile per noi dirgli ‘ehi, non vogliamo usare Intel al 100%’, perché ci hanno dato un supporto molto buono”. Chiang, tuttavia, non ha fatto menzione di pressioni da parte di Intel a lui o all’azienda.

Timori a parte, Chiang ha spiegato che sta considerando molto attentamente l’uso delle CPU AMD nel prossimo futuro. “So che Ryzen e Ryzen Mobile stanno per cambiare le carte in tavola. Continuiamo a valutarli, ma non abbiamo un piano o una data specifica su quando faremo qualcosa con AMD”.

Parlando invece della guerra commerciale tra Stati Uniti e Cina, Chiang ha detto che MSI ha subito l’impatto dalle tariffe imposte da Trump sui beni elettronici provenienti dalla Cina, con un aumento dei prezzi tra il 5% e il 10%. Il CEO ritiene però che i consumatori che acquistano o costruiscono un nuovo PC ad alcuni anni di distanza probabilmente non noteranno la differenza.

“Quante volte le persone comprano un portatile? Quanto spesso acquistano un desktop o un monitor, che sia gaming o meno? Forse ogni due, tre o quattro anni. Quindi la loro precedente [esperienza] di acquisto è forse di tre, quattro anni fa. Perciò se si aggiunge il 5/10% non ne subiscono l’impatto”. A patire di più secondo il dirigente sono le grandi aziende che acquistano nuovi computer ogni anno.

Alcuni produttori stanno trasferendo la loro produzione fuori dalla Cina in paesi come il Vietnam, la Tailandia e Taiwan, ma Chiang si è detto riluttante a investire molto capitale nel tentativo di risolvere un problema tariffario che potrebbe finire in ogni momento.

Per quanto concerne i piani di crescita di MSI, il CEO ha dichiarato che non intende cambiare troppo il focus dell’azienda sul gaming e il mercato prosumer / professionale. “In termini economici non possiamo competere con le aziende più grandi, ma abbiamo visto che i consumatori richiedono quel tipo di prodotti ad alte prestazioni che sono il nostro cuore. Siamo molto bravi in questo”, ha spiegato.

“Abbiamo iniziato con il gaming circa cinque o sei anni fa e continuiamo a crescere ogni anno. Ci chiediamo sempre qual è la prossima area in cui possiamo espanderci. Sicuramente non è quella dei PC economici o business. Lo scorso anno pensavamo a cosa offrire al pubblico prosumer e ai creatori di contenuti e abbiamo parlato con Nvidia e Intel. Ed è così che abbiamo la serie Prestige“.

Chiang crede così tanto nella nuova serie che secondo lui potrebbe riuscire a sottrarre pubblico ad Apple. “Vogliamo creare un ecosistema di prodotti Prestige. Possiamo ottenere una buona esperienza utente e forse dirottare l’1/2% di utenti Apple su di noi. Per noi quello sarebbe già un grande mercato”.

Intel, nuovi driver per le GPU integrate nelle CPU

di Manolo De Agostini

Intel ha pubblicato nelle scorse ore i nuovi driver “Windows 10 DCH” in versione 25.20.100.6519 per le proprie GPU integrate nei processori Skylake e successivi. Si tratta di driver dedicati a Windows 10 a 64 bit.

Come abbiamo scritto qualche tempo fa, si tratta di Universal Windows Driver, anche se Intel usa il termine più “accademico” DCH (spiega da Microsoft a questo indirizzo). Per l’utente finale non cambia molto, ma è una novità richiesta da Microsoft per avere un singolo pacchetto di driver in grado di funzionare su dispositivi differenti, sulle edizioni di Windows 10 basate su Universal Windows Platform (UWP) e sulle altre edizioni.

Tra le novità di questa prima release del 2019, abbiamo una migliore compatibilità con alcuni titoli come GRIS, Bladed Fury e Catherine Classic. Se avete una GPU integrata UHD Graphics 620 o superiore, potrete giocare anche ad ATOM RPG: Post-apocalyptic indie game. Intel ha inoltre ottimizzato le prestazioni con F1 2018 (DX12) su CPU di sesta generazione e successive.

Giochi a parte, la release aggiorna i driver audio alla versione 10.26.00.05, e include anche ottimizzazioni per l’API di machine learning Windows ML, un migliorato supporto al framework del sensore di luce ambientale di Windows 10 e alcuni miglioramenti sia funzionali che prestazionali per il driver Vulkan. Risolti anche alcuni problemi, da bug in titoli come Battlefield V e Farming Simulator 2019, fino ad anomalie relative ai consumi in vari frangenti d’uso.

Microsoft non pensa più che Cortana sia un concorrente diretto di Alexa e Google Assistant

di Lorenzo Spada

Sebbene Microsoft sia una delle aziende maggiormente impegnate nello sviluppo di intelligenze artificiali sfruttando tecniche quali il deep learning e il machine learning, non è riuscita a creare un’assistente digitale che fosse in grado di competere con Alexa e Google Assistant. Cortana è disponibile su Windows 10 e Xbox One ma, da quanto ha riferito […]

L'articolo Microsoft non pensa più che Cortana sia un concorrente diretto di Alexa e Google Assistant proviene da TuttoTech.net.

Volti 3D a partire dalle foto, è nata l’IA che potrà aggirare il riconoscimento facciale?

di Alessandro Crea

Recandovi a questo indirizzo potrete avere un assaggio delle capacità di un nuovo algoritmo messo a punto da un team di ricercatori dell’Università di Nottingham, capace di rendere tridimensionali i volti a partire da una semplice foto.

Sembra la premessa per una di quelle app divertenti che si installano sullo smartphone, si usano due volte e poi si dimenticano, ma non è così. Lo studio infatti è assai importante per l’evoluzione dell’intelligenza artificiale e solleva anche qualche dubbio sulla futura sicurezza degli attuali sistemi di riconsocimento basati proprio sulla scansione dei volti.

https://twitter.com/Emma_Hollen/status/1082193503092961281?ref_src=twsrc%5Etfw%7Ctwcamp%5Etweetembed%7Ctwterm%5E1082193503092961281%7Ctwgr%5E363937393b636f6e74726f6c&ref_url=https%3A%2F%2Fattivissimo.blogspot.com%2F2019%2F01%2Fintelligenza-artificiale-rende.html

Il team è partito dal problema fondamentale di tutta la visione artificiale o computer vision che dir si voglia ossia appunto creare un modello approssimato del mondo reale, che è tridimensionale, a partire da un’immagine bidimensionale com’è appunto una foto. Il processo, con i metodi attuali, è assai complicato, perché presuppone l’utilizzo di database fotografici enormi, in quanto le IA devono riuscire a stabilire corrispondenze dense tra le diverse espressioni che i volti possono assumere, superando le differenze dovute alle diverse pose e a un’illuminazione non uniforme che nasconde quindi alcuni dettagli. Procedure che il team definisce “complesse e inefficienti”.

Per ovviare al problema si è pensato dunque di procedere al contrario, addestrando cioè una normale rete neurale di tipo convoluzionale a comprendere il legame tra una geometria facciale tridimensionale e la relativa immagine bidimensionale. Per fare questo dunque basta un database composto da singole fotografie e modelli tridimensionali o scansioni facciali.

In questo modo l’IA è in grado di ricostruire un volto senza aver bisogno di stabilire allineamenti corretti e corrispondenze dense tra immagini con diverse pose ed espressioni e, a guardare la demo, funziona davvero piuttosto bene.

Risolvere un problema teorico dunque costituisce sempre un avanzamento positivo delle conoscenze in un determinato campo, tuttavia l’eventuale applicazione pratica di determinate soluzioni può porre dei problemi. In linea del tutto teorica ad esempio sarebbe possibile ricostruire una riproduzione tridimensionale di un volto a partire da una semplice foto qualunque, utilizzando questa IA e una stampante tridimensionale.

Al momento la riprova che una riproduzione di questo tipo possa essere in grado di ingannare un sistema di riconoscimento facciale ovviamente non l’abbiamo ma visto in passato quanto sia risultato facile confondere questo tipo di tecnologie, anche nelle loro versioni più sofisticate, il dubbio è legittimo. La tecnologia ovviamente è sempre neutra ma gli esseri umani e i loro scopi non lo sono e bisogna dunque riflettere per tempo, sia da un punto di vista giuridico che tecnologico, sulle possibili implicazioni di ogni singola scelta.

Amazon lancia l’evento re:MARS: focus sull’IA

di Filippo Vendrame

Amazon ha annunciato re:MARS, un nuovo evento globale dedicato all’Intelligenza Artificiale per il Machine Learning, l’Automazione, la Robotica e lo Spazio. Negli ultimi due anni, l’amministratore delegato di Amazon, Jeff Bezos, ha organizzato un evento annuale privato, conosciuto come “MARS”, in cui miliardari, astronauti e tante altre personalità hanno discusso del futuro della tecnologia. Adesso, quell’evento si sta trasformando in una conferenza pubblica.

Leggi il resto dell’articolo

Google, 25 milioni per app di IA a fini sociali

di Marco Locatelli

Intelligenza artificiale di Google al servizio del sociale. Scade il 22 gennaio il bando per partecipare all’iniziativa AI Impact Challenge, che finanzierà i migliori progetti no profit sull’uso benefico dell’intelligenza artificiale. Le organizzazioni selezionate riceveranno il supporto di esperti Google e potranno accedere a un fondo complessivo di 25 milioni di dollari.

Leggi il resto dell’articolo

ASRock, Asus e MSI mettono a catalogo alcune motherboard Intel B365

di Manolo De Agostini

Qualche settimana fa vi abbiamo parlato del chipset Intel B365, “nuova” soluzione di fascia bassa messa a punto dalla casa di Santa Clara per alleggerire le linee produttive a 14 nanometri, destinandole sempre di più alla produzione di CPU Xeon e Core al fine di risolvere l’attuale situazione che vede la domanda superare la disponibilità di processori – con ovvie ripercussioni sui prezzi.

Il B365, a differenza del B360, è infatti un chipset prodotto a 22 nanometri, ma questa non è l’unico elemento differente. Si tratta di un PCH (Platform Controller Hub) della serie Kaby Lake e non Coffee Lake, come le altre proposte della serie 300. Il B365 supporta fino a 20 linee PCI Express anziché le 12 linee del B360. Il “nuovo” chipset offre anche due porte USB in più e diverse configurazioni RAID. Il B360, dal canto suo, vanta il supporto USB 3.1 e al wireless integrato, assenti sul B365. Prestazionalmente parlando non ci sono differenze tra le motherboard B360 e quelle B365, che sostanzialmente è uno Z170 rimarchiato e con overclock bloccato.

La novità è che i produttori di schede madre stanno aggiungendo al proprio catalogo i primi modelli B365. ASRock ha annunciato cinque soluzioni chiamate B365 Phantom Gaming 4, B365M Phantom Gaming 4, B365 Pro4, B365M Pro4 e B365M-ITX/ac. Asus propone tre motherboard chiamate Prime B365M-K, Prime B365M-K/CSM e Prime B365M-A, mentre MSI per ora si ferma a due, B365M PRO-VH e B365M PRO-VD.

Nel complesso le schede madre si presentano in form factor che vanno dall’ATX al mini-ITX, con la B365 Phantom Gaming 4 a rappresentare l’offerta più interessante tra tutte, grazie all’illuminazione RGB integrata, connettori ad hoc e supporto ad ASRock Polychrome RGB. Troviamo anche due slot PCIe 3.0 x16, 8 fasi di alimentazione, supporto fino a 128 GB di memoria DDR4-2666 tramite quattro slot, due slot M.2 PCIe 3.0 x4 e connettività Gigabit LAN.

Al momento queste motherboard non sono disponibili nei negozi italiani, ma trovate tutte le caratteristiche indicate sui siti delle aziende. Non si tratta di soluzioni in grado di spostare l’ago della bilancia del mercato, specie di fronte a CPU Intel ancora su prezzi elevati, ma semplicemente di un escamotage con il quale Intel sta cercando di far fronte a una situazione che l’ha presa in contropiede, tra una domanda inaspettata e il ritardo delle CPU a 10 nanometri a rincarare la dose.

Riconoscimento facciale e IA trovano malattie rare

di Candido Romano

Un sistema di riconoscimento facciale che potrebbe diventare in futuro uno strumento di diagnosi per le malattie rare. Alcuni ricercatori hanno mostrato come gli algoritmi possono aiutare nell’identificare caratteristiche facciali collegate a disordini genetici, velocizzando così potenzialmente anche le diagnosi cliniche.

Leggi il resto dell’articolo

Intel pensiona i bundle Core+, l’accoppiata CPU e Optane Memory non ha sfondato

di Manolo De Agostini

Ad aprile dello scorso anno Intel espandeva la gamma di CPU Core di ottava generazione (Coffee Lake), introducendo contestualmente il nuovo brand Core+, pensato per identificare i PC e alcuni bundle che mettevano insieme un processore Core e un modulo Optane.

L’obiettivo dichiarato era quello di espandere l’uso della tecnologia di caching Optane Memory basata sulla velocissima memoria 3D XPoint, sfruttando il volano delle nuove CPU.

In base però a un documento pubblicato nelle scorse ore della stessa azienda, l’offerta Core+ sparirà dal mercato nei prossimi mesi a causa della mancanza di domanda. Insomma, obiettivo fallito. In base a quanto scritto nel documento, i clienti potranno fare ordini per i bundle Core+ fino al 30 settembre, con le ultime consegne che saranno evase entro il 27 dicembre.

Intel ha portato in commercio tre offerte, tutte composte da un modulo Optane Memory da 16 GB affiancato rispettivamente a un Core i7-8700, Core i5-8500 e 8400. I tempi dell’addio sono lunghi, ma se guardiamo l’Italia l’offerta Core+ è ormai introvabile, segno che tanto i consumatori quanto i rivenditori preferiscono acquistare e vendere le CPU Core e Optane Memory in modo distinto.

Un dato di fatto certificato da Intel, che a PC World ha spiegato come i bundle Core+ in ambito desktop non abbiano sfondato, mentre nel settore notebook non ci saranno cambiamenti, anche se in quel caso poco importa, perché in fin dei conti si tratta di un accordo tra Intel e il produttore del dispositivo, più che una proposta diretta al consumatore.

Francamente questo “flop” non stupisce. Da una parte molti utenti desktop vedono poco valore aggiunto in Optane Memory, che accelera le prestazioni di un hard disk in modo evidente, ma non quelle di un SSD di ultimissima generazione. Tanti consumatori usano l’hard disk come mero archivio e accelerarne le prestazioni, per quanto non faccia mai male, non è cruciale. Per molti le prestazioni di un SSD M.2 NVMe di fascia alta sono più che sufficienti per velocizzare il sistema operativo e i software d’uso più comune, senza contare che il prezzo degli SSD è in costante discesa.

Molti inoltre non amano inserire nel PC un componente hardware in più, con la possibilità che insorgano problemi d’interfacciamento nella “catena” dell’archiviazione. Infine a decretare lo scarso successo di questi bundle non possiamo dimenticare il prezzo: piuttosto che proporre l’accoppiata a un prezzo un po’ più basso della somma dei singoli acquisti, rendendola così più appetibile, Intel ha optato per vendere i bundle a prezzo pieno, senza scontare uno o l’altro componente.

Intelligenza artificiale e riconoscimento facciale usate per identificare rare patologie genetiche

di Lorenzo Spada
Intelligenza artificiale

Sappiamo bene quanto potenziale abbiano l’intelligenza artificiale combinata alla computer vision e al riconoscimento facciale in ambito medico, con diversi progetti molto promettenti. Uno dei nuovi utilizzi di questo trio tecnologico lo si ha nel riconoscimento di rare patologie genetiche. In uno studio pubblicato questo mese sulla rivista Nature Medicine, la società statunitense FDNA ha […]

L'articolo Intelligenza artificiale e riconoscimento facciale usate per identificare rare patologie genetiche proviene da TuttoTech.net.

Asus aggiorna le schede madre Z390: arriva il supporto a 128 GB di RAM

di Marco Pedrani

Tutti i processori Intel Core della serie 9000 sono in grado di supportare fino a 128 GB di memoria RAM, e abbiamo visto come i produttori si stiano adeguando aggiornando le proprie schede madre. La prima è stata MSI, oggi è il turno di Asus.

L’azienda taiwanese ha annunciato che tutte le sue schede madre dotate di chipset Z390 supporteranno i nuovi moduli da 32 GB, arrivando così ad un totale di 128 GB installabili. Finora per avere tutta questa RAM era necessario acquistare schede madre pensate per processori HEDT e dotate di otto slot DIMM, quindi la scelta di Intel di aggiornare il Memory Reference Code (MRC) e abilitare il supporto alle nuove memorie sarà sicuramente apprezzata dagli appassionati.

L’aggiornamento in questione arriverà per tutte le schede tramite una nuova versione del BIOS nel corso delle prossime settimane, ma per alcuni modelli selezionati è già disponibile. Per sapere se siete tra i fortunati, vi basterà consultare il sito di Asus.

❌