უკვდავება ან ნგრევა: რა შეუძლია ხელოვნური ინტელექტის გაკეთებას კაცობრიობასთან, როდესაც ის სუპერმთავარი ხდება - ForumDaily

The article has been automatically translated into English by Google Translate from Russian and has not been edited.
Переклад цього матеріалу українською мовою з російської було автоматично здійснено сервісом Google Translate, без подальшого редагування тексту.
Bu məqalə Google Translate servisi vasitəsi ilə avtomatik olaraq rus dilindən azərbaycan dilinə tərcümə olunmuşdur. Bundan sonra mətn redaktə edilməmişdir.

უკვდავება ან განადგურება: რა შეუძლია ხელოვნური ინტელექტის გაკეთებას კაცობრიობასთან, როდესაც ის სუპერგონდა ხდება

ხელოვნურმა ინტელექტმა შეიძლება გამოიწვიოს კაცობრიობის გადაშენება, აფრთხილებენ ზოგიერთი ექსპერტი, მათ შორის OpenAI-სა და Google Deepmind-ის ხელმძღვანელები. როგორ შეუძლიათ მანქანებს დაამარცხონ ადამიანები და რა მოჰყვება ამას, გამოცემამ გაარკვია BBC.

ფოტო: IStock

მას შემდეგ, რაც ChatGPT 2022 წლის ნოემბერში დაიწყო, ეს ხელოვნური ინტელექტის (AI) ჩატბოტი გახდა ყველაზე სწრაფად მზარდი ინტერნეტ აპლიკაცია ისტორიაში.

სულ რაღაც ორ თვეში მას 100 მილიონი აქტიური მომხმარებელი ჰყავდა. ტექნოლოგიური მონიტორინგის კომპანიის Sensor Town-ის ინფორმაციით, Instagram-ს ამ ნიშნის მისაღწევად ორწელიწადნახევარი დასჭირდა.

ChatGPT-ის ასეთმა პოპულარობამ გამოიწვია ინტენსიური დებატები ხელოვნური ინტელექტის გავლენის შესახებ კაცობრიობის მომავალზე.

ათობით ექსპერტმა მხარი დაუჭირა ხელოვნური ინტელექტის უსაფრთხოების ცენტრს, რომელმაც განაცხადა, რომ „ხელოვნური ინტელექტისგან ადამიანის გადაშენების რისკის შემცირება გლობალური პრიორიტეტი უნდა იყოს, სხვა გლობალურ რისკებთან ერთად, როგორიცაა პანდემია და ბირთვული ომი“.

ამავდროულად, სხვა ექსპერტები თვლიან, რომ ასეთი შიში გადაჭარბებულია და კაცობრიობას არაფრის ეშინია.

ადამიანების იმიტაცია

AI ინსტრუმენტებით შექმნილი ტექსტი და სურათები, როგორიცაა ChatGPT, DALL-E, Bard და AlphaCode, შეიძლება განსხვავდებოდეს ადამიანის მუშაობისგან.

მათი დახმარებით სტუდენტები ასრულებენ საშინაო დავალებას, პოლიტიკოსები კი წერენ გამოსვლებს, როგორიცაა დემოკრატიული პარტიის წარმომადგენელი ჯეიკ აუჩინკლოსი.

ტექნოლოგიურმა გიგანტმა IBM-მა განაცხადა, რომ მალე შეწყვეტს ადამიანების დაქირავებას 7800 თანამდებობაზე, რომლებზეც ხელოვნური ინტელექტი მუშაობს.

On სათაური: ხელოვნურმა ინტელექტმა ახალი ანტიბიოტიკი გამოიგონა: ის მოაგვარებს პრობლემას, რომელსაც ექიმები ათწლეულების განმავლობაში ვერ უმკლავდებოდნენ

და რაც არ უნდა საოცარი იყოს ეს ცვლილებები, ეს მხოლოდ დასაწყისია.

ახლა ჩვენ მხოლოდ AI განვითარების პირველ ეტაპზე ვართ. წინ კიდევ ორია, რამაც, ზოგიერთი მეცნიერის აზრით, შესაძლოა პირდაპირ საფრთხე შეუქმნას კაცობრიობის გადარჩენას.

სამი ეტაპი

1. ხელოვნური ვიწრო ინტელექტი (AI)

ხელოვნური ვიწრო ინტელექტი, რომელიც ასევე ცნობილია როგორც ვიწრო AI, ფოკუსირებულია ერთ ამოცანაზე და ასრულებს განმეორებით სამუშაოს ფუნქციების მოცემულ დიაპაზონში.

მას შეუძლია ბევრი მონაცემის შესწავლა, მაგალითად, ინტერნეტიდან, მაგრამ მხოლოდ გარკვეულ სფეროში, რომლისთვისაც დაპროგრამებული იყო.

კარგი მაგალითია ჭადრაკის პროგრამები. მათ შეუძლიათ ჭადრაკში მსოფლიო ჩემპიონის დამარცხება, მაგრამ მხოლოდ ეს შეუძლიათ.

სმარტფონებზე ბევრი აპლიკაციაა, რომლებიც იყენებენ ამ ტექნოლოგიას, GPS რუქებიდან დაწყებული მუსიკალური და ვიდეო პროგრამებით დამთავრებული.

კიდევ უფრო რთული სისტემები, როგორიცაა თვითმართვადი მანქანები და ChatGPT, ვიწრო ხელოვნური ინტელექტის ფორმებია. მათ არ შეუძლიათ იმოქმედონ ამოცანების ნაკრების მიღმა, ამიტომ ვერ იღებენ გადაწყვეტილებებს დამოუკიდებლად.

თუმცა, ზოგიერთი ექსპერტი თვლის, რომ ავტომატური სწავლისთვის დაპროგრამებული სისტემები, როგორიცაა ChatGPT ან AutoGPT, შეძლებენ განვითარების შემდეგ ეტაპზე გადასვლას.

2. ხელოვნური ზოგადი ინტელექტი (AI)

ხელოვნური ზოგადი ინტელექტი რეალობად იქცევა, როდესაც მანქანას შეუძლია შეასრულოს ნებისმიერი ინტელექტუალური დავალება, რომელიც ადამიანს შეუძლია.

ხელოვნური ზოგადი ინტელექტი არის ის წერტილი, როდესაც მანქანას აქვს იგივე ინტელექტუალური შესაძლებლობები, როგორც ადამიანს.

მას ასევე უწოდებენ "ძლიერ AI".

ექვსი თვის შესვენება

2023 წლის მარტში 1000-ზე მეტმა ტექნოლოგიურმა ექსპერტმა მოუწოდა „საერთო ხელოვნური ინტელექტის ლაბორატორიას დაუყოვნებლივ შეაჩერონ სწავლება GPT-6-ზე უფრო მძლავრ AI სისტემებზე მინიმუმ 4 თვით“ (ChatGPT-ის უახლესი ვერსია).

„ადამიანის მსგავსი და კონკურენტული ინტელექტის მქონე ხელოვნური ინტელექტის სისტემამ შეიძლება სერიოზული საფრთხე შეუქმნას საზოგადოებას და მთლიანად კაცობრიობას“, - წერს Apple-ის თანადამფუძნებელი სტივ ვოზნიაკი და სხვა ტექნოლოგიების ლიდერები, მათ შორის Tesla და SpaceX-ის მფლობელი ელონ მასკი.

მასკი იყო OpenAI-ის ერთ-ერთი თანადამფუძნებელი, მაგრამ მოგვიანებით დატოვა ფირმის ხელმძღვანელობასთან უთანხმოების გამო.

არაკომერციული ორგანიზაცია Future of Life Institute-ის მიერ გამოქვეყნებულ წერილში ექსპერტებმა განაცხადეს, რომ თუ კომპანიები უარს იტყვიან თავიანთი პროექტების სწრაფად შეჩერებაზე, „მთავრობებმა უნდა ჩაერიონ და მორატორიუმი დააწესონ“, რათა უსაფრთხოების ზომები შემუშავდეს და განხორციელდეს.

"რამდენადაც სულელი, რამდენადაც ჭკვიანი"

პირველ წერილს ასევე ხელი მოაწერა კარისა ველისმა ოქსფორდის უნივერსიტეტის AI ეთიკის ინსტიტუტიდან. მიუხედავად იმისა, რომ AI უსაფრთხოების ცენტრის შემდგომი განცხადება, რომელიც აფრთხილებს ადამიანის გადაშენებას, მისი აზრით, ძალიან შორს მიდის, მან არჩია მასზე ხელი არ მოეწერა.

”ხელოვნური ინტელექტი, რომელსაც ჩვენ ახლა ვაშენებთ, ისეთივე სულელურია, როგორც ჭკვიანი”, - თქვა მან. ”თუ ვინმე ცდის ChatGPT-ს ან სხვა AI-ს, შეამჩნევს, რომ ისინი ძალიან, ძალიან შეზღუდულია.”

ველიზი ამბობს, რომ მას უფრო მეტად აწუხებს ის ფაქტი, რომ ხელოვნური ინტელექტის შექმნა შეუძლია დეზინფორმაციის უზარმაზარი სისწრაფით.

„როგორც აშშ-ს არჩევნები ახლოვდება, ისეთი მნიშვნელოვანი პლატფორმები, როგორიცაა Twitter და სხვები, ათავისუფლებენ AI ეთიკისა და უსაფრთხოების გუნდებს. ეს უფრო მაწუხებს“, - ხაზგასმით აღნიშნა მან.

აშშ-ს მთავრობა აღიარებს პოტენციურ საფრთხეებს.

„ხელოვნური ინტელექტი ჩვენი დროის ერთ-ერთი ყველაზე მძლავრი ტექნოლოგიაა, მაგრამ იმისათვის, რომ ვისარგებლოთ მასში არსებული შესაძლებლობებით, პირველ რიგში უნდა შევამციროთ ის რისკები, რომლებიც მას უქმნის“, - ნათქვამია თეთრი სახლის განცხადებაში 4 მაისს.

აშშ-ს კონგრესმაც კი დაურეკა OpenAI-ის აღმასრულებელ დირექტორს სემ ალტმანს, რათა დაეკითხა რამდენიმე შეკითხვა ChatGPT-ის შესახებ.

სენატის მოსმენის დროს ალტმანმა თქვა, რომ ძალზე მნიშვნელოვანია, რომ მისი ინდუსტრია რეგულირდება მთავრობის მიერ, რადგან AI დღითიდღე ძლიერდება.

კარლოს იგნასიო გუტიერესმა, Future Life Institute-ის საჯარო პოლიტიკის მკვლევარმა განმარტა, რომ ხელოვნური ინტელექტის მიერ შექმნილი ერთ-ერთი დიდი პრობლემა არის ის, რომ „არ არსებობს ექსპერტთა კოლეგიური ჯგუფი, რომელიც გადაწყვეტს როგორ დაარეგულიროს ეს, როგორც ეს ხდება, მაგალითად, სამთავრობათაშორისო ჯგუფის კლიმატის ცვლილების ექსპერტებთან ერთად.

ეს მიგვიყვანს ხელოვნური ინტელექტის მესამე და ბოლო ეტაპზე.

3. ხელოვნური სუპერინტელექტი (IS)

როდესაც მივაღწევთ მე-2 სტადიას (AI), თითქმის მაშინვე გადავალთ ფინალურ ეტაპზე - ხელოვნური სუპერინტელექტი (AS). ეს მაშინ მოხდება, როცა ხელოვნური ინტელექტი ადამიანის ინტელექტს აღემატება.

ოქსფორდის უნივერსიტეტის ფილოსოფოსი და ხელოვნური ინტელექტის ექსპერტი ნიკ ბოსტრომი განმარტავს სუპერინტელექტს, როგორც ინტელექტს, რომელიც „უაღრესად აღემატება ადამიანის საუკეთესო ტვინს პრაქტიკულად ყველა სფეროში, მათ შორის მეცნიერულ შემოქმედებითობას, ზოგად ინტელექტს და სოციალურ უნარებს“.

„ადამიანები, რომლებიც ხდებიან ინჟინრები, ექთნები ან იურისტები, დიდი ხნით უწევთ სწავლა. Y-ის პრობლემა ის არის, რომ... მას შეუძლია მუდმივად გაუმჯობესდეს, ხოლო ჩვენ არ შეგვიძლია“, - განმარტავს გუტიერესი.

Სამეცნიერო ფანტასტიკა

განვითარების ეს კონცეფცია მოგვაგონებს ფილმის „ტერმინატორის“ სიუჟეტს, რომელშიც მანქანები იწყებენ ბირთვულ ომს კაცობრიობის განადგურების მიზნით.

არვინდ ნარაიანანმა, პრინსტონის უნივერსიტეტის კომპიუტერულმა მეცნიერმა, ადრე თქვა, რომ სამეცნიერო ფანტასტიკის მსგავსი კატასტროფის სცენარები არარეალურია: „ამჟამინდელი ხელოვნური ინტელექტი თითქმის ვერ აცნობიერებს ამ რისკებს. შედეგად, ის ამცირებს ხელოვნური ინტელექტის მოკლევადიან ზიანს“.

მიუხედავად იმისა, რომ ბევრი საუბარია იმაზე, შეუძლია თუ არა მანქანას რეალურად შეიძინოს ის ფართო ინტელექტი, რაც ადამიანს შეუძლია, განსაკუთრებით მაშინ, როდესაც საქმე ეხება ემოციურ ინტელექტს, ეს არის ის, რაც ყველაზე მეტად აწუხებს მათ, ვინც თვლის, რომ ჩვენ ახლოს ვართ IP-ს მიღწევასთან.

ცოტა ხნის წინ, ეგრეთ წოდებულმა „ხელოვნური ინტელექტის ნათლიამა“, ჯეფრი გინტონმა, მანქანური სწავლების პიონერმა, გააფრთხილა, რომ შესაძლოა ამ ეტაპს მივაღწიოთ.

”დღეს მანქანები ჩვენზე ჭკვიანი არ არიან, რამდენადაც მე ვხედავ. მაგრამ მე ვფიქრობ, რომ ისინი შეიძლება მალე გახდნენ, ”- თქვა 75 წლის გინტონმა, რომელიც ახლახან დატოვა Google-ში.

მისი თქმით, ახლა ნანობს შესრულებულ სამუშაოს და შიშობს, რომ „ცუდი ადამიანები“ ხელოვნურ ინტელექტს „ცუდ საქმეებში“ გამოიყენებენ.

„მაგალითად, წარმოიდგინეთ, რომ ვიღაცამ, როგორიც რუსეთის პრეზიდენტმა ვლადიმერ პუტინმა გადაწყვიტა, რობოტებს მიეცათ შესაძლებლობა შექმნან საკუთარი შუალედური მიზნები“, - ამტკიცებდა ის.

შეიძლება დაგაინტერესოთ: ნიუ – იორკის ახალი ამბები, ჩვენი ემიგრანტების ისტორიები და სასარგებლო რჩევები დიდ ვაშლში ცხოვრების შესახებ - წაიკითხეთ ეს ყველაფერი New York– ის ფორუმზე

მისი აზრით, საბოლოო ჯამში, მანქანას შეუძლია საკუთარ თავს „მეტი სიმძლავრის მიღების“ მიზანი დაუსახოს.

ამასთან, გინტონმა აღნიშნა, რომ მოკლევადიან პერიოდში, მისი აზრით, ხელოვნური ინტელექტი გაცილებით მეტ სარგებელს მოუტანს, ვიდრე რისკს.

ასე რომ, მე არ ვფიქრობ, რომ ჩვენ უნდა შევწყვიტოთ მისი განვითარება,” - დაასკვნა მან.

გადაშენება თუ უკვდავება

ბრიტანელი ფიზიკოსი სტივენ ჰოკინგი დიდი ხანია აფრთხილებს მომავალ თაობებს ხელოვნური ინტელექტის საშიშროების შესახებ.

„სრულფასოვანი ხელოვნური ინტელექტის განვითარება შეიძლება ადამიანთა რასის დასასრულს ნიშნავს“, - თქვა მან 2014 წელს, სიკვდილამდე ოთხი წლით ადრე.

მისი თქმით, ამ დონის ინტელექტის მქონე მანქანას შეუძლია დამოუკიდებლად იმოქმედოს და საკუთარი თავის გადამუშავება.

ნანობოტები და უკვდავება

ხელოვნური ინტელექტის ერთ-ერთი ყველაზე დიდი ენთუზიასტი არის ფუტურისტ-გამომგონებელი და ავტორი რეი კურცვეილი, გუგლის ხელოვნური ინტელექტის მკვლევარი და სილიკონ ველის სინგულარობის უნივერსიტეტის თანადამფუძნებელი.

კურცვეილი თვლის, რომ ადამიანებს შეეძლებათ სუპერ ინტელექტუალური ხელოვნური ინტელექტის გამოყენება ბიოლოგიური ბარიერების დასაძლევად.

2015 წელს მან თქვა, რომ 2030 წლისთვის ადამიანებს შეეძლოთ მიაღწიონ უკვდავებას ნანობოტების (უკიდურესად მცირე სამუშაოების) წყალობით, რომლებსაც შეეძლოთ ნებისმიერი ზიანის გამოსწორება და ჩვენს ორგანიზმში არსებული დაავადებების განკურნება.

AI კონტროლი

გუტიერესი ეთანხმება, რომ მთავარია ხელოვნური ინტელექტის მართვის სისტემის შექმნა.

„წარმოიდგინეთ მომავალი, სადაც რომელიმე ერთეულს აქვს იმდენი ინფორმაცია პლანეტაზე ყველა ადამიანისა და მათი ჩვევების შესახებ, რომ შეუძლია გვაკონტროლოს ისე, როგორც ჩვენ არც კი ვიცით“, - ამბობს ის. „ყველაზე უარესი სცენარი არ არის ის, რომ არის ომები ადამიანებსა და სამუშაო ადგილებს შორის. ყველაზე ცუდი ის არის, რომ ჩვენ ვერ ვაცნობიერებთ, რომ მანიპულირებენ, რადგან ჩვენზე ბევრად ჭკვიანი არსებით ვცხოვრობთ პლანეტაზე."

ასევე წაიკითხეთ ფორუმზე:

ზაფხული მოდის: როგორ მოვამზადოთ სახლი სიცხისთვის

ექვსი ამერიკული კომპანია, რომელიც გადაგიხდით შვებულებაში და მოგცემთ დისტანციურად მუშაობის საშუალებას

აშშ-ის ოთხი ძირითადი ქალაქი, სადაც ბინის ყიდვა უფრო იაფია, ვიდრე დაქირავება

ფრენის დაგვიანების შესახებ წინასწარ შეიტყობთ, ჯერ კიდევ მის გამოცხადებამდე

შეერთებულ შტატებში თქვენი სამედიცინო გადასახადის შემცირების ექვსი გზა

როგორ დაზოგოთ სასურსათო პროდუქტებზე: 6 აპი, რომელიც ყიდის ჭარბ საკვებს იაფად რესტორნებში, თონეებსა და სხვა ბიზნესში

განვითარება ხელოვნური ინტელექტი ლიკებზი კაცობრიობა
გამოიწერეთ ForumDaily Google News- ზე

გსურთ უფრო მნიშვნელოვანი და საინტერესო ამბები აშშ-ში ცხოვრებისა და ამერიკაში იმიგრაციის შესახებ? - მხარი დაგვიჭირეთ შემოწირულობა! ასევე გამოიწერეთ ჩვენი გვერდი Facebook. აირჩიეთ „პრიორიტეტი ჩვენებაში“ და ჯერ წაგვიკითხეთ. ასევე, არ დაგავიწყდეთ ჩვენი გამოწერა დეპეშა არხი  და Instagram- იქ ბევრი საინტერესო რამ არის. და შეუერთდი ათასობით მკითხველს ფორუმი დღევანდელი ნიუ – იორკი — იქ ნახავთ უამრავ საინტერესო და პოზიტიურ ინფორმაციას მეტროპოლიის ცხოვრების შესახებ. 



 
1087 მოთხოვნა 1,104 წამში.