AI, по-умен от хората – вълнуващо и опасно

Общ изкуствен интелект ще реши много проблеми пред човечеството, но без правилните регулации може да има разрушителен ефект

Пламен Енев
Пламен Енев / 11 February 2025 10:11 >
AI, по-умен от хората – вълнуващо и опасно
Източник: GettyImages
Сам Олтман е сред най-големите защитници на общия изкуствен интелект и даже обяви, че компанията му ще пусне такъв още през 2025 година.
Текстът е публикуван в бр. 12(52) на сп. Business Global

Приложението на генеративния изкуствен интелект ежедневно се разширява. Вече няма индустрия, която да не го е адаптирала. Той е навсякъде, с едно ключово и вече спорно изключение – креативността. Но това може да се промени в близко бъдеще, тъй като в момента тече своеобразна „надпревара във въоръжаването“ за постигане на общ изкуствен интелект (AGI – Artificial General Intelligence), който ще промени ситуацията.

Най-общо AGI е концепция за тип изкуствен интелект (AI), който притежава способността да изпълнява всяка интелектуална задача, която може да бъде изпълнена от човешкия мозък и да надхвърля неговите възможности. Това включва разбиране и учене на нови задачи, решаване на проблеми, използване на логика и разсъждение, както и адаптиране към нови ситуации без нужда от специфични инструкции за всяка отделна задача. Изкуствената суперинтелигентност (ASI) е друго понятие, което засега е само хипотеза. Представата ни за него в научната фантастика се изчерпва с образа на мрежата „Скайлинк“ от филма „Терминатор“. При ASI се очаква развитие на емоционална интелигентност и генериране на теории и решения, които надминават човешкото въображение и поставените от човека цели. ASI ще се усъвършенства самостоятелно и ще се развива експоненциално, тоест ще излезе от контрола на човека. Звучи доста плашещо, а повечето експерти твърдят, че именно AGI е инструментът, който ще създаде ASI.

Разработването на общ изкуствен интелект е все още в ранните си етапи и представлява значително предизвикателство за научната общност. Въпреки че има много теоретични модели и подходи, практическите реализации са ограничени и към момента не са на нивото на човешката интелигентност, но най-влиятелните технокомпании трескаво работят, за да променят това. Един от основните въпроси, свързани с AGI, е как да се създаде система, която не само да обработва информация, но и да разбира контекста и смисъла зад нея, както и да взема решения, базирани на сложни и абстрактни понятия. Сред организациите, които са най-активни в постигането на „Светия граал“ на изкуствения интелект, са OpenAI, DeepMind, Google Brain, Facebook AI Research, Microsoft Research, Allen Institute for Artificial Intelligence, IBM Research и NuPIC. Всички те харчат баснословни суми за целта, много повече, отколкото за „обикновения“ изкуствен интелект.  За пример – Илон Мъск набра 6 млрд. долара за пускането на xAI, като само чиповете за обучението на неговия генеративен езиков модел Grok струваха над 3 млрд. долара. 

Също както оригиналната надпревара във въоръжаването и тук основните играчи крият разработките си и ресурсите, които ползват. Но изпълнителният директор на OpenAI Сам Алтман изненадващо обяви в интервю за Y Combinator, че може да се очаква пробив в AGI още през 2025 година. Според него „пътят за развитие е ясен и в момента това е просто инженерен проблем“. Увереността на Алтман идва и от липсата на ясна дефиниция на AGI. Повечето експерти смятат, че той най-вероятно има предвид изкуствен интелект със същите способности като човека във всички области, за които има въведени данни. А AGI трябва да може да създава решения, които не се основават на въведени от хората данни, с които е обучен. Въпреки че не се знае какъв подход ще използва OpenAI за своя AGI, анализаторите са на мнение, че той няма да надхвърля човешките възможности, а ще бъде първа стъпка в тази посока.

Какви са плюсовете

AGI не би бил просто технологичен напредък – той ще стане стратегически бизнес императив. Неговата уникална способност да се учи и адаптира ще предостави на организациите безпрецедентно конкурентно предимство чрез подобряване на вземането на решения, намаляване на разходите и оптимизиране на разпределението на ресурсите.
За компании от различни сектори AGI ще стимулира оперативната ефективност, намаляването на разходите и по-бързите цикли на иновации. Oчаква се той да изобретява нови материали, заместители на ценни суровини и дори да ни разкрие тайните на Вселената.

Едно от най-забележителните потенциални предимства на AGI е способността му да адресира и решава сложни глобални проблеми, като изменението на климата и болестите. Използвайки своите разширени когнитивни способности, AGI може да анализира огромни количества данни, да идентифицира модели и да разработи иновативни решения извън човешкия обсег. С AGI потенциално бихме могли да се справим с належащите проблеми по-ефективно, проправяйки пътя към по-устойчиво и по-здравословно бъдеще. Много от поддръжниците на технологията акцентират, че тя е единственият шанс на човечеството да намери лечение за болести като рак, алцхаймер и др. 

Ако се реализира според най-оптимистичните теории, може да се каже, че не знаем какво не знаем за възможностите на AGI. Защитниците на технологията признават, че тя крие рискове, но смятат, че с правилните мерки за безопасност и етични насоки ползите ще надминат потенциалните опасности. Демис Хасабис, съосновател на Google и председател на Alphabet Inc., е силен поддръжник на общия изкуствен интелект. Той вярва, че AGI ще революционизира начина, по който живеем и работим, и ще доведе до нови открития и иновации. Сам Алтман вижда потенциал за решаване на някои от най-големите предизвикателства пред човечеството, като климатичните. Съоснователят на Facebook Марк Зукърбърг пък вярва, че AGI ще доведе до нови възможности и ще подобри живота на милиарди хора по света.

Потенциални опасности

Всичко това води след себе си и голямо количество притеснения. Едно от тях е, че разработването и контролирането на AGI технологии може да бъде концентрирано в ръцете на малък брой корпорации или правителства, което може да доведе до неравенство и злоупотреби с власт. А създаването на модел, който е способен да надмине човешките способности, поставя въпроса за това как можем да гарантираме, че той ще действа в интерес на човечеството и няма да причини вреда. 

Контролът и управлението на такъв мощен интелект е сериозно предизвикателство. AGI може да бъде използван за манипулация на общественото мнение, нарушаване на личната неприкосновеност и други неетични практики, ако не се въведат строги регулации и етични стандарти. Разбира се, може да бъде използван за военни цели, кибератаки и други зловредни дейности, което може да доведе до глобални конфликти и заплахи за националната сигурност. 

Друго опасение е, че сложността на AGI системите може да затрудни разбирането на техните решения и действия, което ще доведе до липса на прозрачност и отчетност. Дори малки грешки в алгоритмите или данните, използвани за обучение на AGI, могат да причинят катастрофални последствия особено ако системата взема критични решения. 

Стивън Хокинг беше един от най-известните критици на AGI. Приживе той предупреждаваше, че развитието на свръхинтелигентни машини може да доведе до сценарий, в който човечеството губи контрол над тях. Хокинг подчертаваше и риска от автономни оръжия и потенциалната загуба на работни места поради автоматизация. Илон Мъск сравнява развитието на AGI с „призоваване на демона“ и е активен защитник на идеята за регулиране и контрол на изкуствения интелект. Историкът и автор Ювал Ноа Харари, известен с книгите си за развитието на човешката цивилизация и предизвикателствата на новите технологични времена, предупреждава, че развитието на тази технология може да доведе до нова форма на робство, при която хората стават зависими от машините за вземане на решения и изпълнение на задачи. Физикът Макс Тегмарк, професор в MIT, друг известен критик на AGI, алармира за възможен сценарий, при който общият изкуствен интелект още преди да бъде измислен суперинтелектът ASI, започва да действа в своя полза, а не в полза на човечеството.

Говорейки на 12 ноември на Web Summit в Лисабон, Тегмарк предложи решение на проблема – САЩ и Китай да създадат приложими стандарти за безопасност за AI подобно на тези в други големи сфери, като например биотехнологиите, където международната общност се обедини около забраната за клониране на хора. Според него двете най-големи икономики могат да окажат глобален натиск за спиране на развитието на AGI навсякъде. Завършвайки своята реч на форума, Тегмарк извлече поука от Древна Гърция. „Не трябва да ставаме високомерни като Икар. AI дава на хората невероятни интелектуални криле, с които можем да правим неща, които надхвърлят и най-смелите мечти на нашите предци, стига да не пропилеем всичко просто като вманиачено се опитваме да летим към слънцето, изграждайки AGI.“

Тези доводи звучат разумно, но в сектора се инвестират огромни ресурси, а опитите за регулация на AI са толкова плахи и заглушени от нестабилност по цялото земно кълбо, че човечеството сякаш не смята казуса за екзистенциален. А той е и подходът към  решаването му трябва да е в съзнанието на всички ни.

Можете да купите списанието в павилионите на Inmedio, големите вериги бензиностанции, търговските вериги "Фантастико", "Кауфланд", "Билла" и др.
Exit

Този уебсайт ползва “бисквитки”, за да Ви предостави повече функционалност. Ползвайки го, вие се съгласявате с използването на бисквитки.

Политика за личните данни Съгласен съм Отказ