Лавал Ібрагім Оланії, випускник машинобудування, Нігерія

Це початок кінця? Кожне десятиліття приходить з моментами, які змушують нас задуматися, чи не наближається людська цивілізація до великої катастрофи. Від історій світової війни та зміни клімату до політичної нестабільності та технологічних змін легко відчути, що світ наближається до кінця. Але чи справді це початок кінця чи лише наступний етап епохи еволюції людства?

У цій статті ми детально зануримося в сучасні тенденції розвитку шьучного інтелекту (ШІ), етичні міркування та ісламську точку зору на його розвиток.

Зростання ШІ та глобальні амбіції

Штучний інтелект більше не є футуристичною концепцією; це теперішня реальність. Сполучені Штати та Китай знаходяться в авангарді нової глобальної гонки за домінування штучного інтелекту, викликаючи дискусії про його переваги та ризики.

Лише минулого місяця президент Дональд Трамп склав присягу як 47- й президент Сполучених Штатів, змінивши на цій посаді колишнього президента Джо Байдена. Кілька днів потому він оголосив про «Проект Зоряних воріт» вартістю 500 мільярдів доларів — амбітний проект зі штучним інтелектом, який спрямований на створення величезних центрів обробки даних у Сполучених Штатах. Хоча деталі проекту все ще неоднозначні, одне залишається точним – США прагнуть стати світовим лідером у марафоні ШІ.

Тим часом технологічна індустрія Китаю також набирає обертів. Китайський стартап нещодавно випустив DeepSeek-R1, модель штучного інтелекту з відкритим кодом, яка конкурує з ChatGPT-4 OpenAI. Хосе Антоніо, технічний аналітик, підкреслює його здатність перевершувати ChatGPT за кількома тестами, відзначаючи значно нижчу вартість 0,14 доларів США за мільйон токенів порівняно з 7,50 доларів США за OpenAI. Випуск моделі викликав реакцію користувачів мережі та навіть спричинив крах фондових ринків в один момент, протиставляючи її продуктивність порівняно з моделлю OpenAI та її доступністю.

AGI: Обіцянка чи небезпека?

Розвиток штучного інтелекту більше не є новиною. Насправді ми повільно вступаємо в еру загального штучного інтелекту (AGI), типу штучного інтелекту, здатного відповідати або навіть перевершувати інтелект людського рівня в широкому діапазоні когнітивних завдань . Генеральний директор Open AI Сем Альтман, який очолює проєкт «Stargate», нещодавно оголосив про плани компанії випустити свого «першого агента AI», якого він описує як «найпотужнішу технологію в історії людства».

Розвиток штучного інтелекту, а віднедавна й AGI, схожий на палку з двома кінцями, яка має як багатообіцяюче майбутнє, так і потенційну небезпеку в історії людського існування. Можливості штучного інтелекту зараз виходять за межі наших уявлень, і він здатний виконувати дивовижні завдання. У статті Вілла Дугласа, технічного аналітика, він пояснює роботу «Operator», першого агента ШІ, випущеного OpenAI. Він може виконувати певні онлайн-завдання, такі як бронювання квитків, бронювання та виконання онлайн-замовлення продуктів – і все це шляхом створення скріншотів екрана комп’ютера, сканування пікселів і взаємодії з кнопками на ньому.

Однак ці досягнення викликають занепокоєння. Порушення конфіденційності, дезінформація та нерегульоване використання – це лише деякі ризики, які хвилюють експертів. В інтерв’ю BBC Newsnight Джеффрі Хінтон, хрещений батько штучного інтелекту, висловив занепокоєння щодо нерегульованого розвитку штучного інтелекту, який він називає «екзистенціальною загрозою». Хінтон вважає, що наші сучасні великі мовні моделі набагато потужніші, ніж ми думаємо. Він ілюструє це, пояснюючи, чому вважає їх «вищою формою інтелекту».

«Уявіть, що ви можете створити багато копій однієї й тієї ж нейронної мережі (скажімо, 10 000), кожна копія може переглядати окремий біт даних, і всі вони обмінюються тим, що дізналися один з одним. Він порівнює це з наявністю 10 000 людей, кожен з яких отримує різний ступінь і ділиться своїми знаннями з іншими 10 000. Уявіть, якими розумними вони стануть», – додає Хінтон. На жаль, це неможливо для людей, але можливо для нейронних мереж.

Так само в ексклюзивному інтерв’ю Business Insider Йошуа Бенгіо, канадський дослідник, який разом з Джеффрі Хінтоном і Янном Лекуном вважається хрещеним батьком ШІ, попереджає про ризик агентичного ШІ.

«Усі катастрофічні сценарії з AGI або суперінтелектом трапляються, якщо у нас є агенти…». Якщо ми створимо неагентні системи штучного інтелекту, їх можна використовувати для керування агентними системами», — сказав Бенгіо в інтерв’ю BI.

Під час панельної сесії про безпеку штучного інтелекту Бенгіо також називає розробку агентів ШІ «червоним прапором» і «найнебезпечнішим шляхом». Однак він підкреслив, що можна використовувати штучний інтелект у корисні способи – як наукові відкриття – які не вимагають агентних систем, таких як прорив DeepMind у згортанні білків.

AI: Темна сторона

У відео, опублікованому Чарлі Хольцом, програмістом, на його сторінці X, він ділиться своїм досвідом використання моделі GPT-4 + vision @elevenlabs, де модель ШІ імітує голос Девіда Аттенборо, британського телеведучого та біолога, і розповідає про життя Хольца. Це відео використало найкраще з соціальних мереж і викликало реакцію кількох користувачів, а користувачі мережі високо оцінили продуктивність моделі ШІ.

Лише через тиждень після цього інциденту сер Девід Аттенборо — справжній — висловив занепокоєння щодо того, як цей штучний інтелект може потенційно ввести в оману людей, щоб вони повірили, що він говорить речі, які суперечать його переконанням. Девід Аттенборо вважає, що ШІ-версія його особисто засмучує. Це чітко окреслює одне з потенційних зловживань «Generative AI» у технології «deepfake».

Ми також бачимо нещодавні звинувачення на адресу генерального директора Meta Марка Цукерберга, якого звинуватили у використанні піратського контенту для навчання моделей ШІ . Це сталося після судового позову, поданого проти нього в 2022 році за те, що він дозволив Cambridge Analytica збирати дані користувачів Facebook без їхньої згоди за допомогою алгоритмів ШІ. Експерти висловлюють занепокоєння щодо порушення конфіденційності даних і штучного інтелекту.

Нік Робінс-Ерлі, технічний аналітик, також підтверджує кілька випадків використання озброєних систем штучного інтелекту, які зараз використовуються у війнах по всьому світу. Наприклад, Китай зарах розробляє озброєних роботів-собак, а озброєні дрони використовуються у російсько-українській війні.

Кілька країн зараз використовують зону бойових дій як полігон для випробувань своїх систем штучного інтелекту, що викликає нагальні питання щодо нерегульованого використання ШІ під час війни.

Ісламська етика щодо розвитку ШІ

У світлі цих занепокоєнь важливо враховувати етичні принципи, передбачені вченням ісламу. Священний Коран заохочує вивчення природи та використання знань на благо людства:

اَوَلَمۡ یَتَفَکَّرُوۡا فِیۡۤ اَنۡفُسِہِمۡ ۟ مَا خَلَقَ اللّٰہُ السَّمٰوٰتِ وَالۡاَرۡضَ وَمَا بَیۡنَہُمَاۤ اِلَّا بِالۡحَقِّ وَاَجَلٍ مُّسَمًّی ؕ وَاِنَّ کَثِیۡرًا مِّنَ النَّاسِ بِلِقَآیِٔ رَبِّہِمۡ لَکٰفِرُوۡنَ

«Невже вони не замислювалися про себе? Аллах створив небеса, землю й те, що між ними, лише в істині й на певний строк. Але ж більшість людей не вірують у зустріч зі своїм Господом!» (Сура ар-Рум, глава 30: аят 9)

Тим не менш, Священний Коран застерігає людство не організовувати власне знищення:

وَلَا تُلۡقُوۡا بِاَیۡدِیۡکُمۡ اِلَی التَّہۡلُکَۃِ

«[…] і не кидайте себе на загибель своїми руками» (Сура Аль-Бакара, гл.2: аят 196)

Влучною аналогією для людства, яке організувало власне знищення, є Манхеттенський проект, який призвів до створення першої атомної бомби. Навіть Роберт Оппенгеймер, вчений, який стоїть за її розробкою, висловив глибоке занепокоєння, дізнавшись про руйнівні наслідки бомби.

Подібним чином піонери штучного інтелекту зараз висловлюють занепокоєння щодо його швидкого розвитку. Із загрозливим зростанням ШІ здається, що історія ось-ось повториться.

Всевишній Аллах створив нас із вільною волею. Він також благословив нас здатністю відрізняти правильне від неправильного:

وَہَدَیۡنٰہُ النَّجۡدَیۡنِ

«І Ми вказали йому на дві дороги [добра і зла]». (Сура аль-Балад, глава 90: аят 11)

Подібним чином Обітований Месія наголошував на використанні даних Богом здібностей у відповідний час і у відповідному місці. ( Малфузат [2018], том 1, стор. 34)

Священний Коран також особливо підкреслює важливість перевірки інформації:

يَـٰٓأَيُّهَا ٱلَّذِينَ ءَامَنُوٓاْ إِن جَآءَكُمۡ فَاسِقُۢ بِنَبَإٖ فَتَبَيَّنُوٓاْ أَن تُصِيبُواْ قَوۡمَۢا بِجَهَٰلَةٖ فَتُصۡبِحُواْ عَلَىٰ مَا فَعَلۡتُمۡ نَٰدِمِينَ

«О ви, які увірували! Якщо до вас із якоюсь звісткою прийде нечестивець, то спробуйте все прояснити. Адже через своє незнання ви можете зашкодити людям, про що згодом будете жалкувати!» (Сура аль-Худжурат, гл.49: аят 7)

Цей вірш особливо актуальний у сучасну епоху, коли в Інтернеті є незліченна кількість фейкової інформації.

Священний Коран також закликає людей задуматися над своїми вчинками:

وَاِذَا تَوَلّٰی سَعٰی فِی الۡاَرۡضِ لِیُفۡسِدَ فِیۡہَا وَیُہۡلِکَ الۡحَرۡثَ وَالنَّسۡلَ ؕ وَاللّٰہُ لَا یُحِبُّ الۡفَسَادَ

«I коли відвертається він, то поспішає сіяти безчестя на землі, нищити посіви та нащадків. Та Аллах не любить нечестивців!» (Сура Аль-Бакара, гл.2: аят 206)

Значення цього вірша також можна поширити на надпотужні нації; щоб вони задумалися над своїми діями. Нерегульована розробка штучного інтелекту без етичного нагляду насправді може призвести до значної шкоди для людства. Це вимагає збалансованого підходу до розробки та використання ШІ.

Під час мулаката з командою веб-сайту Alislam Хузур-е-Анвар наголосив на важливості людського нагляду для відповідального використання ШІ. Крім того, він повідомив, що всю інформацію, отриману за допомогою штучного інтелекту, особливо стосовно Джамаату, потрібно редагувати та аналізувати, щоб переконатися, що вона написана правильно. Хузур аа також попередив про можливе зловживання та відповідальність за розробку превентивних заходів, щоб уникнути поширення неправдивої інформації.

І інщшому мулакаті, говорячи про штучний інтелект, Хузур аа заохочував ахмаді провести глибші дослідження цього питання. Він поділився прикладом, коли штучному інтелекту було надано речення, але він неправильно переклав вміст. Незважаючи на цей недолік, Хузур не засуджував використання ШІ; натомість він наголосив на важливості ретельної оцінки інформації, яку вона генерує, для забезпечення точності та надійності.

Заклик до відповідального ШІ

Оскільки ШІ продовжує розвиватися, люди стоять на роздоріжжі. Хоча потенціал для наукових відкриттів і суспільних вигод величезний, не можна нехтувати ризиками нерегульованого розвитку. Етичні міркування, такі як конфіденційність, справедливість і підзвітність, повинні керуватися використанням і розробкою ШІ. Таким чином, щоб зменшити ризик розвитку ШІ, було б розумно вжити деяких заходів безпеки:

Розробка прозорої моделі: документування дизайну систем, процесів навчання та шляхів прийняття рішень має вирішальне значення для виявлення та усунення потенційних упереджень у системах ШІ.

Жорсткі державні нормативні акти: державні установи повинні прийняти закони, які гарантуватимуть ретельний контроль компаній, які розробляють штучний інтелект, щоб переконатися, що всі розроблені моделі штучного інтелекту відповідають нормам і рекомендаціям щодо штучного інтелекту. Це дозволить запобігти випадкам неправильного використання та знизити потенційний ризик.

Міжнародні норми: Континентальним і міжнародним організаціям, таким як Європейський Союз і Організація Об’єднаних Націй, необхідно прийняти комплексні закони, які забороняють розробку та використання штучного інтелекту в сучасній війні.

Такі правила запобігли б використанню систем штучного інтелекту як зброю та зменшили б наслідки, пов’язані з використанням автономних систем зброї. Країни, які не дотримуються цих встановлених стандартів, повинні зіткнутися з суворими санкціями для забезпечення відповідальності та запобігання порушенням. Це необхідний крок для забезпечення глобального миру та безпеки.

Висновок

Підсумовуючи, експоненціальний розвиток штучного інтелекту, безсумнівно, є корисним, але, як і всі інші технологічні зміни, він супроводжується власним ризиком. Хоча побоювання щодо його небезпеки та неправильного використання обґрунтовані, ми не можемо прямо заперечувати його позитивний вплив у сучасну епоху.

Якщо штучний інтелект розробляти відповідально, він має потенціал, щоб допомогти нам отримати нові погляди на природу, привести нас до великих наукових проривів і навіть допомогти нам подолати економічні кризи.

Питання полягає не в тому, чи ШІ сформує наше майбутнє, а в тому, як ми вирішимо сформувати ШІ, щоб він відображав найкраще від людства.

Джерело: https://www.alhakam.org/should-we-fear-ai-development/