Niezrozumiałe wyniki Tłumacza Google. Wpisz te hasła, a stanie się coś dziwnego
Internauci odkryli zagadkowe odpowiedzi na hasła wpisywane w Tłumaczu Google. Zawierają niezrozumiałe i bezpodstawne przepowiednie. Eksperci twierdzą, że to prawdopodobnie błąd sztucznej inteligencji. Ale równie dobrze, winni mogą być internauci.
24.07.2018 | aktual.: 24.07.2018 11:33
Wpisz w Tłumaczu Google'a 19 razy słowo "dog" tłumacząc z języka maori, na przykład na polski. Efekt? Zobaczysz dziwną, religijną przepowiednię brzmiącą tak:
To tylko jeden z wielu przykładów, które odkryli użytkownicy serwisu Reddit. Powstał już nawet subreddit, czyli dział portalu, dedykowany "Translate Gate" - aferze translatora. Użytkownicy postują tam wszelkie hasła, po wpisaniu których wyskakują dziwne przepowiednie, czy niezrozumiałe zdania.
Okazuje się, że hasła mogą być wpisywane w różnych językach. Na przykład powtarzanie słowa "ag" w języku somalijskim, prowadziło do powstawania różnych haseł, zależnie, ile razy wpisaliśmy. W moim przypadku "ag" nie zadziałało, ale serwis Motherboard pokazał następujące przykłady:
Na Twitterze również rozpoczęła się dykusja na temat demonów, duchów i wszelkich przepowiedni. Użytkownicy "TranslateGate" sugerowali, że niektóre z tych dziwnych haseł mogą pochodzić z wiadomości e-mail zbieranych w bazie danych Google'a.
Google szybko odpowiedziało na te pogłoski. "Tłumacz Google uczy się na przykładach tłumaczeń w internecie i nie korzysta z prywatnych wiadomości do tłumaczenia, ani też nie ma dostępu do tego rodzaju treści" - wypowiedział się Justin Burr, rzecznik prasowy Google'a dla serwisu Motherboard.
Istnieje kilka możliwości, w jaki sposób powstały te dziwne wyniki. Możliwe, że "mroczne proroctwa" są wynikiem żartu pracowników Google'a, którzy pozmieniali wyniki. Ale nie tylko oni mają wpływ na tłumaczenia podawane przez algorytm. Każdy użytkownik może zasugerować zmianę tłumaczenia, korzystając z przycisku "Zaproponuj zmianę". Prawdopodobnie po kilku takich sugestiach, algorytm automatycznie zmienia swój sposób działania.
Serwis Motherboard skontaktował się także ze specjalistą z Uniwersytetu Harvarda, który zajmuje się tłumaczeniami komputerowymi. Twierdzi, że kilka lat temu w Tłumaczu Google'a zastosowano "neuronowe tłumaczenie maszynowe".
Wykorzystując nauczanie maszynowe, system jest szkolony na podstawie dużej liczby tekstów z ich dokładnymi tłumaczeniami na inny język. W ten sposób powstaje model translacji między dwoma językami. Kiedy system otrzymuje dziwne, niezrozumiałe słowa, może zajść efekt podobny do halucynacji u człowieka, twierdzi ekspert.
Oprogramowanie tłumaczące może odbierać powtarzające się znaki i szukać hasła, które wygląda na równie płynnie złożone, mające wspólne dane wejściowe z wyjściowymi. Tłumacz jest zaprogramowany tak, aby koniecznie próbować odnaleźć odpowiedni wynik. Jeśli trafi na hasło, którego nie rozumie, będzie szukał odpowiedzi brzmiącej płynnie, mimo, że nie mającej nic wspólnego z danymi wejściowymi. W ten sposób mogą powstawać te dziwne hasła, według eksperta.
Źródło: Motherboard