Bing

Sztucznej inteligencji trzeba się bacznie przyglądać: Brad Smith z firmy Microsoft

Spisu treści:

Anonim

Dla wielu może to brzmieć jak żart, ale jeszcze nie tak dawno strach przed sztuczną inteligencją postrzeganie go jako zagrożenia dla rasy ludzkiej była dość powszechną fobią. W rzeczywistości widzieliśmy to już w tej rozmowie w naszym odcinku drugiego sezonu Captcha, w którym widzieliśmy, jak bardzo jest to nieuzasadniony strach.

Wydaje się jednak, że nie wszyscy tak to postrzegają i wielu uważa, że ​​Skynet lub Matrix i rewolucja maszyn są tuż za rogiem. Sztuczna inteligencja może stanowić zagrożenie, dlatego podczas GeekWire Summit 2019 prezes firmy Microsoft, Brad Smith, przedstawił swoją nieco pesymistyczną wizję

Czy sztuczna inteligencja stanowi zagrożenie?

Smith podał powód tej nieco negatywnej opinii, katastrofę lotniczą, która miała miejsce w rejonie Cieśniny Puget, w której samolot z pasażerami i załogą uległ wypadkowi z powodu automatyczny system, którego nie mogli wyłączyć z kabiny, kiedy nadszedł czas.

Oprogramowanie i jego założenia były wspaniałe, ponieważ są odpowiedzialne za wykrywanie nadmiernego nachylenia samolotu, jeśli jest on zbyt wysoki, obniżanie nosa i odpowiednie zmniejszanie wysokości. Problem polega na tym, że w tym przypadku pomiary się nie powiodły i załoga pokładowa nie mogła dezaktywować systemu co skończyło się tragicznie.

"

Ta sytuacja była wymówką dla Brada Smitha, który uzasadnia, że ​​rozwój technologiczny jest godny pochwały, ale zawsze musi być kontrolowanyA w przypadku sztucznej inteligencji i systemów, które ją zawierają, muszą one mieć rodzaj przycisku napadowego lub awaryjnego, który umożliwia ich dezaktywację."

A dla przypomnienia, nie jest to jedyny przypadek. Na bardziej przyziemnym poziomie i znacznie bliższym zdecydowanej większości użytkowników mamy przypadki potrąceń ludzi przez autonomiczne samochody.

Chodzi o zagwarantowanie prymatu decyzji ludzkich w pewnych momentach iw pewnych okolicznościach, w których podejmowanie decyzji w systemie w sprawie sztucznej inteligencji nie jest tak adekwatny, jak powinien.

Brad Smith nie poprzestał na tym punkcie w swojej krytyce wykorzystania sztucznej inteligencji, jaką znamy dzisiaj. Całe społeczeństwo i cała branża muszą być świadome drogi, którą podążają:

"

Widzieliśmy drony i machiny wojenne>To tylko część problemu sprawia, że ​​Smith potwierdza, że ​​należy zbadać potencjalne ryzyko niekontrolowanego rozwoju sztucznej inteligencji i uczenie automatyczne (uczenie maszynowe). W rzeczywistości słyszeliśmy już podobną opinię od inżyniera Google."

To skomplikowany problem. Rozwój sztucznej inteligencji, która w danym momencie nie potrafiła nawet sama zarządzać systemami sterowanianarzuconymi przez ludzi. Skrzyżowanie pomysłów i teorii jest na stole i da wiele do omówienia.

Źródło | GeekWire

Bing

Wybór redaktorów

Back to top button