Наскоро Стивън Хокинг и Илон Мъск предупредиха за потенциалните заплахи, идващи от изкуствения интелект, а сега германски учени поклаждат този дебат, посочвайки, че няма начин да научим роботите да взимат правилни решения, пише The Daily Mail.
Според изследователите от Техническия университет в Дармщат в определени ситуации машините не биха могли да преценят какво трябва да се направи, което означава, че ще действат непредсказуемо по отношение на неизчислими морални дилеми.
Научният доклад се фокусира върху задаващата се употреба на автономни оръжия. „Смъртоносните автономни оръжия коренно ще променят военното дело и ще поставят редица етични и правни въпроси“, отбелязват учените.
Някои специалисти предполагат, че роботите биха могли да използват „морален компас“, какъвто са Женевските конвенции, но според новото изследване това няма да е достатъчно заради феномен, наречен проблем на колебанието. Той се състои в невъзможността да се определи кога компютърната програма ще намери решение и дали изобщо ще го намери или ще функционира безкрайно.
В доклада изследователите дават примера на „проблема с тролея“, който има няколко версии. Най-общо се описва ситуация, при която тролей се движи срещу група от хора, заплашвайки да ги прегази. Човек, стоящ близо до релсовата стрелка има възможност да отклони превозното средство само към един от групата.
Взимането на правилно решение е морална дилема и тя няма абсолютен, правилен отговор, а това би било проблем за изкуствения интелект. В такива случаи решението на машината би било непредвидимо.
Едно от основните заключения на учените от Дармщат е, че не трябва да се създава робот, чието основно предназначение е да убива или наранява хора.
Този уебсайт ползва “бисквитки”, за да Ви предостави повече функционалност. Ползвайки го, вие се съгласявате с използването на бисквитки.