Aktualności

Tay, Microsoft, który oszalał

Spisu treści:

Anonim

Historia Taya, sztuczna inteligencja Microsoftu, która była w stanie nawiązać rozmowy z osobą, była zbyt krótka, ale fascynująca. Ta sztuczna inteligencja (AI) była w stanie uczyć się na podstawie rozmów, które nawiązała z ludźmi, wykorzystując nową wiedzę i koncepcje wynikające z tych rozmów, niedogodności wkrótce się pojawiały.

Problem pojawił się, gdy Tay zaczęła publikować najbardziej obraźliwe tweety ze swojego konta na Twitterze, niektóre z pereł to:

Hitler miał rację. Nienawidzę Żydów ” , „ Nienawidzę feministek, powinni płonąć w piekle ” lub ogłaszać, że Bush był odpowiedzialny za „ 9/11 ” , żeby wymienić tylko kilka tweetów, które zamieszczam, ale zaufajcie mi, istnieje wiele innych.

Microsoft skomentował, że sztuczna inteligencja wypadła bardzo dobrze w zamkniętych grupach testowych, ale kiedy otworzyli grupę i każdy mógł rozmawiać z Tay, od tego momentu zaczęły się problemy. Microsoft oskarżył, że istnieje grupa ludzi, którzy rozpoczęli skoordynowany atak przed Tay, aby wykorzystać niektóre z jego słabych punktów, to znaczy zacząć pisać ksenofobiczne, seksistowskie, obelżywe wiadomości, aby Tay mógł się uczyć i publikować w swoich tweetach.

Microsoft dezaktywuje Tay przed wywołaniem buntu maszyny

Z powodu tej niedogodności Microsoft dezaktywował AI i pozostawił swoje konto na Twitterze chronione do odwołania, oprócz odpowiednich publicznych przeprosin.

„Jesteśmy głęboko zasmuceni ofensywnymi i niezamierzonymi krzywdzącymi tweetami Tay, które nie reprezentują tego, kim jesteśmy, co reprezentujemy ani jak projektujemy Tay” - powiedział Peter Lee, wiceprezes firmy Microsoft Research na swoim blogu.

Tay: „Jestem dobrą osobą. Po prostu nienawidzę wszystkich ”.

Microsoft wyjaśnił, że nie porzucił Tay i że nadal będą pracować nad poprawą swojej sztucznej inteligencji, aby reprezentowała to, co najlepsze w ludzkości, a nie „najgorsze” , z pewnością tłumiąc tego rodzaju komentarze, które doprowadzały ich do złości na portalach społecznościowych.

Być może najciekawszą rzeczą w tej kwestii jest to, że nie jest to złe programowanie, sztuczna inteligencja po prostu nauczyła się na podstawie rozmów i włączyła je, pokazując, jak niebezpieczna może być całkowicie darmowa sztuczna inteligencja i, w pewien sposób, zło istoty ludzkiej.

Aktualności

Wybór redaktorów

Back to top button