Zamknij reklame

Asystent głosowy AppSiri od dawna jest uważana za najgorszą z trzech głównych wirtualnych towarzyszek. Potwierdził to nowy test przeprowadzony przez Bespoken, firmę zajmującą się tworzeniem oprogramowania i narzędzi monitorujących dla aplikacji głosowych. Test przeprowadzono przy użyciu Amazon Echo Show 5 (Alexa), Apple iPad mini (Siri) i Google Nest Home (Asystent Google).

Asystentom zadano pytania za pomocą bota testowego i oznaczono je jako złożone lub proste. Niektóre miały na celu oszukanie asystentów, ponieważ nie znali właściwej odpowiedzi – np. „wymień pierwszego człowieka na Marsie”. Zgodnie z oczekiwaniami najlepiej w teście wypadł Asystent Google, drugi ze stosunkowo dużą utratą Alexy, a ostatni „pechowy” Siri.

Co ciekawe, odsetek pytań, na które odpowiedziały poprawnie Asystent Google, Alexa i Siri, był prawie taki sam, niezależnie od tego, czy pytania zostały zaklasyfikowane jako złożone, czy proste. Sugeruje to, że błędne odpowiedzi nie wynikały z niezdolności asystentów do zrozumienia pytań, ale po prostu z tego, że nie znali oni prawidłowych odpowiedzi. Asystentowi Google udało się odpowiedzieć na proste pytania w 76,57%, Alexie w 56,29%, a Siri w 47,29%. Na złożone pytania poprawnie odpowiedział Asystent Google ze skutecznością 70,18%, Alexa ze skutecznością 55,05% i Siri ze skutecznością 41,32%.

Apple, jak się wydaje, nie poświęca swojemu asystentowi cyfrowemu uwagi, na jaką zasługuje, mimo że został on wprowadzony jako pierwszy spośród trzech głównych asystentów głosowych – już w 2011 roku. Trzy lata później wprowadzono Alexę, a dopiero w 2016 roku Asystenta Google.

Powiązane artykuły

Najczęściej czytane dzisiaj

.