13-12-2023 11:58:05 თვალსაზრისი ,რეკლამა
2023 წლის 8 დეკემბერს, ევროკავშირის საბჭომ და ევროპარლამენტმა მიაღწიეს დროებით შეთანხმებას ხელოვნური ინტელექტის შესახებ აქტზე („დროებითი შეთანხმება“ და „AI აქტი“), რაც წარმოადგენს პრეცედენტს და საფუძვლად დაედება პირველ ყოვლისმომცველ სამართლებრივ ბაზას. დღემდე არც აშშ-ს და არც ჩინეთს ხელოვნური ინტელექტი არ დაურეგულირებიათ. ევროკავშირის ინსტიტუტთა მთავარ ამოცანას წარმოადგენდა ეპოვა ბალანსი ადამიანის უფლებების, მომხმარებელთა ინტერესების დაცვასა და პროგრესის შემქმნელი ბიზნესის ინტერესებს შორის. მათ შორის, ამ დილემის გამო, შიდა განხილვისა და მოლაპარაკების პროცესი 2021 წლიდან მიმდინარებდა.
რაზე შეთანხმდნენ ევროკავშირში?
პირველ რიგში, შეთანხმებაში გადმოტანილია ხელოვნური ინტელექტის ის დეფინიცია, რომელიც შემუშავებული ჰქონდა OECD-ის, რაც უზრუნველყოფს იმას, რომ AI გაიმიჯნა მარტივი პროგრამული სისტემებისგან.
მეორე, რაზეც მოხდა პრინციპული შეთანხმება არის ის, რომ AI აქტი არ გავრცელდება ევროკავშირის ფარგლებს გარეთ. გარდა ამისა, გამონაკლისებადაა ჩათვლილი და რეგულირების ფარგლებს მიღმაა სამხედრო, ეროვნული უსაფრთხოების, კვლევისა და ინოვაციების აპლიკაციები.
შემდეგი მნიშვნელოვანი მომენტი არის უკვე AI სისტემების კლასიფიკაცია. AI სისტემები კლასიფიცირდება მათი პოტენციური რისკის მიხედვით. შესაბამისად, ზოგიერთი ტიპის ინტელექტის გამოყენება აკრძალულია, მაღალი რისკის სისტემები ექვემდებარება მკაცრ წესებს, ხოლო დაბალი რისკის AI სისტემებს ემუქრება მინიმალური ვალდებულებები, პირველ რიგში გამჭვირვალობასთან დაკავშირებით, როგორიცაა გამჟღავნება იმისა, რომ კონტენტი AI-ს მიერაა გენერირებული (მაგალითად, მომხმარებლის ინფორმირება, რომ მას ხელოვნური ინტელექტი პასუხობს კითხვებზე და არა ადამიანი).
პირველ კატეგორიაში ექცევა აკრძალული ტიპის ხელოვნური ინტელექტი. აკრძალულია ადამიანის ქცევითი მანიპულირება, ადამიანის სახის ამოცნობისთვის გამოსახულებების ინტერნეტიდან მოპოვება, ადამიანის ემოციების ამოცნობა და კონტროლი და მსგავსი.
მეორე კატეგორიაშია მაღალი რისკის მატარებელი ხელოვნური ინტელექტი, როგორიცაა იმგვარი AI, რომელიც გამოიყენება კრიტიკულ ინფრასტრუქტურაში, სადაც რისკის ქვეშ შეიძლება აღმოჩნდეს ადამიანების სიცოცხლე და ჯანმრთელობა; იმგვარი ინტელექტი, რომელიც გადაწყვეტს ადამიანთა განათლებაზე ან პროფესიულ განვითარებაზე წვდომის საკითხს (მაგალითად, გამოცდების გასწორება); ასევემ ინტელექტი, რომელიც გავლენას ახდენს საჯარო და კერძო სერვისებზე (მაგალითად, ინტელექტი, რომელიც წყვეტს მოქალაქის კრედიტუნარიანობას); მართლმსაჯულების და დემოკრატიული პროცესის მინდობა ხელოვნური ინტელექტისთვის (მაგალითად, სასამართლოს ფუნქციის შესრულება).
ამგვარი ხელოვნური ინტელექტის გამოყენებისთვის ნებართვის მიღებაა საჭირო და შეიძლება მოხდეს მისი გამოყენების შეზღუდვა დროში, გეოგრაფიულად ან სხვა კრიტერიუმით.
მესამე კატეგორიაა შეზღუდული რისკის მატარებელი AI, სადაც მხოლოდ გამჭვირვალეობის ვალდებულება არსებობს. აღნიშნულის მაგალითი ზემოთ მოვიყვანეთ და ის გულისხმობს მომხმარებლის ინფორმირებას იმის შესახებ, რომ მას საქმე ხელოვნურ ინტელექტთან ან ხელოვნური ინტელექტის მიერ შექმნილ პროდუქტთან აქვს.
მეოთხე კატეგორიაა დაბალი რისკის მქონე ან რისკის არმქონე ხელოვნური ინტელექტი, როგორიცაა ამგვარი ინტელექტის ელემენტის მქონე ვიდეო თამაშები, სპამების ფილტრაციის სისტემები და მსგავსი. ასეთი სისტემები არანაირი მოთხონას ან შეზღუდვას არ ექვემდებარებიან.
შეთანხმების მიუხედავად, აქტი ჯერ კიდევ უნდა დამტკიცდეს ევროპარლამენტისა და ევროკავშირის საბჭოს მიერ, ხოლო მისი მიღების შემდეგ ბიზნესებს და ტექნოლოგიის შექმნელ ინსტიტუტებს ექნებათ კიდევ ორი წელი, რათა ახლად-დადგენილი მოთხოვნები გაითვალისწინონ. გარკვეული გამონაკლისებს თუ არ ჩავთვლით, მოსალოდნელია, რომ აქტი ძალაში 2026 წელს შევა.
საქართველოსთვის, როგორც ევროკავშირის მომავალი წევრისთვის, მნიშვნელოვანია, ამ მიმართულებით მიღებული და მისაღები ნებისმიერი გადაწყვეტილება ევროკავშირის კანონმდებლობის ჭრილში შეაფასოს, რათა ბიზნესისთვის განჭვრეტადი და თანმიმდევრული იყოს სახელმწიფოს მიდგომები. ევროკავშირის მსგავსად, ჩვენი სახელმწიფოს მიზანიც უნდა იყოს ადამიანის უფლებების, მომხმარებელთა უფლებებისა და სახელმწიფო/საზოგადოებრივი უსაფრთხოების იმგვარი დაცვა, რომელიც მინიმალურ ზიანს მიაყენებს ბიზნესს და ტექნოლოგიურ პროგრესს.
სანდრო სამადბეგიშვილი, ანალიტიკური ცენტრი "ჯეოქეისის" მრჩეველი