lunedì 6 marzo 2017 di Michele Nasi 2846 Letture
Google dà credito a contenuti falsi e l'assistente digitale li considera attendibili

Google dà credito a contenuti falsi e l'assistente digitale li considera attendibili

Si ripropone il problema della scelta dei contenuti attendibili da parte degli assistenti digitali. Google Home commette svariate gaffe affidandosi a snippet palesemente falsi. Cos'è accaduto.

Si chiamano snippet in primo piano e sono dei riquadri che Google, da qualche tempo a questa parte, spesso propone nelle sue SERP in risposta a specifiche domande degli utenti.
Come chiaramente spiegato in questa pagina, gli snippet contengono - in forma concisa - informazioni che vengono estratte da siti che agli occhi di Google godono di una buona reputazione e sembrano offrire una risposta sintetica ma allo stesso tempo convincente alla domanda posta.

Google dà credito a contenuti falsi e l'assistente digitale li considera attendibili

Il problema è che Oltreoceano è stato in questi giorni rilevato un comportamento piuttosto anomalo nella selezione dei contenuti proposti come snippet in testa alle SERP.


Ex presidenti degli Stati Uniti che vengono legati al Ku Klux Klan, Barack Obama descritto come "burattinaio" di un imminente colpo di stato, esponenti repubblicani presentati come nazisti, considerazioni misogine e così via. Queste solo alcune delle "perle" scovate dai colleghi statunitensi.

Come spiega Danny Sullivan di Search Engine Land le varie gaffe sono divenute subito manifeste anche ai possessori del nuovo assistente digitale Google Home.




In altre parole, Google Home si basa fortemente sul contenuto degli snippet del motore di ricerca per offrire risposta ai quesiti vocali degli utenti.
Google Home non è infatti soltanto "centro multimediale" ma riveste il ruolo di "assistente tuttofare" per ricevere risposte pertinenti a qualunque genere di domanda o "promemoria" su attività da svolgere e appuntamenti imminenti.

Sullivan spiega che in questo caso non sembra trattarsi di un abuso delle funzionalità di Google da parte di terzi. Più semplicemente, quanto accaduto pare riconducibile a palesi errori commessi dagli algoritmi di machine learning che Google sta continuando a sviluppare e migliorare. Sono i tecnici dell'azienda fondata da Larry Page e Sergey Brin che dovranno capire perché l'intelligenza artificiale abbia considerato attendibili contenuti che invece non lo sono affatto e che avrebbero dovuto essere del tutto ignorati (o addirittura penalizzati nelle SERP).

Come discernere con ragionevole certezza i contenuti falsi da quelli inverosimili? È opportuno che Google continui a visualizzare gli snippet in testa alle pagine dei risultati per certi tipi di interrogazioni? Non si rischia così di limitare eccessivamente le capacità di analisi e filtro degli utenti stessi?
Interrogativi che certamente, nelle stanze di Mountain View, saranno in queste ore oggetto di attento esame.

Anche perché il motore di ricerca di Google gestisce qualcosa come 5 miliardi di query di ricerca ogni giorno e per il 15% di esse vengono proposti degli snippet.
D'ora in avanti se si vorrà proseguire su questa strada, sarà importante accertarsi che vengano selezionati i contenuti ragionevolmente migliori. Una bella sfida.