ყოფილი პოლიტპატიმრები ადამიანის უფლებებ
  • მთავარი

4/4/2022

ადამიანის უფლებები ხელოვნური ინტელექტის ეპოქაში

Comments

Read Now
 
Picture
ხელოვნური ინტელექტი სულ უფრო ხშირად გამოიყენება ჩვენს ყოველდღიურ ცხოვრებაში და აღწევს საქმიანობის მრავალ სფეროში. ავიღოთ, მაგალითად, ერთი შეხედვით მარტივი სიტუაციები, როდესაც ჭკვიანი სანავიგაციო სისტემა თავიდან აიცილებს საცობებს ან როდესაც ადამიანი იღებს მიზანმიმართულ რეკლამას სანდო მაღაზიებიდან, ხელოვნური ინტელექტის (AI) მიერ გამოყენებული დიდი რაოდენობით მონაცემების ანალიზის შედეგად. ამ მაგალითებში სარგებელი აშკარაა, მაგრამ საზოგადოება ხშირად უგულებელყოფს მონაცემთა შეგროვებისა და ანალიზის ეთიკურ და იურიდიულ შედეგებს.

ხელოვნური ინტელექტი, მათ შორის ისეთი სფეროები, როგორიცაა მანქანათმცოდნეობა და ღრმა სწავლება, ნეიტრალურია მხოლოდ ერთი შეხედვით. უფრო დეტალური დათვალიერება ცხადყოფს, რომ მას შეუძლია დიდად იმოქმედოს ადამიანების ინტერესებზე კონკრეტულ შემთხვევებში. ცხოვრების ბევრ სფეროში, მათემატიკური გამოთვლების საფუძველზე გადაწყვეტილების მიღება უზარმაზარ სარგებელს იძლევა. თუმცა, თუ ხელოვნური ინტელექტი აკისრებს ძალიან დიდ როლს ადამიანის ცხოვრებაში, რაც გულისხმობს ქცევის განმეორებადი შაბლონების იდენტიფიცირებას, მას შეუძლია უკუშედეგი მოახდინოს მომხმარებლებს, გამოიწვიოს უსამართლობა და ასევე ადამიანის უფლებების შეზღუდვა.

ხელოვნური ინტელექტის გამოყენება ეხება ადამიანის უფლებების ბევრ ასპექტს, რომლებიც ჩემი მუშაობის სფეროს განეკუთვნება. ამრიგად, ამ ალგორითმების გამოყენებამ შეიძლება უარყოფითად იმოქმედოს ჩვენს რიგ უფლებებზე. პრობლემას ემატება გამჭვირვალობის ნაკლებობა, ანგარიშვალდებულება და ინფორმაციის ნაკლებობა იმის შესახებ, თუ როგორ არის შექმნილი ეს სისტემები, როგორ ფუნქციონირებს ისინი და სად შეიძლება წავიდნენ მომავალში.

კონფიდენციალურობის და თანასწორობის უფლებაში ჩარევა

დაძაბულობა ხელოვნური ინტელექტის ტექნოლოგიების სარგებელსა და ადამიანის უფლებების შეზღუდვებს შორის განსაკუთრებით აშკარაა კონფიდენციალურობის სფეროში. პირადი ცხოვრების ხელშეუხებლობის უფლება არის ადამიანის ფუნდამენტური უფლება, რომელიც აუცილებელია უსაფრთხო და ღირსეული ცხოვრებისათვის. თუმცა, ციფრულ სივრცეში, მათ შორის, როდესაც ჩვენ ვიყენებთ აპებსა და სოციალურ მედიას, გროვდება უზარმაზარი პერსონალური მონაცემები (ჩვენი ინფორმირებულობით ან მის გარეშე), რომელიც შეიძლება გამოყენებულ იქნას ჩვენი პროფილის შესაქმნელად და ჩვენი ქცევის პროგნოზირებისთვის. ჩვენ ვაწვდით ინფორმაციას ჩვენი ჯანმრთელობის, პოლიტიკური შეხედულებების, ოჯახური ცხოვრების შესახებ, არც კი ვიცით ვინ, რა მიზნით და როგორ გამოიყენებს ამ მონაცემებს.

მანქანები მუშაობენ იმის მიხედვით, თუ როგორ დააპროგრამეს ისინი. თუ სისტემაში დაინერგება (შეგნებულად ან შემთხვევით) ალგორითმები, რომლებიც მოიცავს ადამიანის მიკერძოებას, ასეთი სისტემა აუცილებლად გაიმეორებს მათ. მთავარი საზრუნავი არის ხელოვნური ინტელექტის სისტემებში მრავალფეროვნებისა და ჩართვის ნაკლებობა: იმის ნაცვლად, რომ ჩვენი გადაწყვეტილებები უფრო ობიექტური იყოს, მათ შეუძლიათ გააძლიერონ დისკრიმინაცია და ცრურწმენები. არსებობს მზარდი მტკიცებულება, რომ მიკერძოებულზე დაფუძნებული სამუშაო ნაკადები დისკრიმინაციას უწევს ქალებს, ეთნიკურ უმცირესობებს და შეზღუდული შესაძლებლობის მქონე ადამიანებს.

კვლევებმა აჩვენა, რომ Google უფრო მეტად აჩვენებს მაღალანაზღაურებად სამუშაო რეკლამებს სამუშაოს მაძიებლებს მამაკაცებს, ვიდრე ქალებს. ევროკავშირის ფუნდამენტური უფლებების სააგენტოს მიერ გასულ მაისში გამოქვეყნებული კვლევის თანახმად, ხელოვნური ინტელექტის უნარს შეუძლია დისკრიმინაციის გამწვავება. როდესაც მონაცემების საფუძველზე მიღებული გადაწყვეტილებები ასახავს საზოგადოების ცრურწმენებს, ისინი ამრავლებენ და ზოგჯერ ამძაფრებენ საზოგადოების ცრურწმენებს. ამ საკითხს ხშირად აყენებენ სამეცნიერო საზოგადოება და არასამთავრობო ორგანიზაციები, რომლებმაც ცოტა ხნის წინ მიიღეს ტორონტოს დეკლარაცია, რომელიც ითხოვს გარანტიას, რომ სწავლის ავტომატური სისტემები არ ამძაფრებს დისკრიმინაციულ პრაქტიკას.

თუ გადაწყვეტილებებს ბრმად ხელმძღვანელობენ დამახინჯებული ალგორითმების შედეგები, ამან შეიძლება სერიოზულად იმოქმედოს ადამიანის უფლებებზე. მაგალითად, პროგრამული უზრუნველყოფა, რომელიც იღებს გადაწყვეტილებებს ჯანდაცვისა და ინვალიდობის შეღავათების შესახებ, შეცდომით გამორიცხავდა ადამიანებს, რომლებსაც ჰქონდათ უფლება ასეთი შეღავათებისთვის, ზოგჯერ დამღუპველი შედეგებით გაჭირვებულთა გამორიცხული კატეგორიისთვის. მართლმსაჯულების სისტემაში ხელოვნური ინტელექტი ასევე შეიძლება იყოს როგორც პროგრესის, ასევე ბოროტების ძრავა. სისხლის სამართლის სისტემები მთელ მსოფლიოში სულ უფრო ხშირად მიმართავენ ხელოვნურ ინტელექტს დანაშაულის პრევენციისთვის, რაც მოიცავს უამრავ შესაბამის საკითხს, დაწყებული სამართალდამცავებიდან დანაშაულისა და რეციდივის პროგნოზირებამდე. ამავდროულად, ბევრი ექსპერტი გამოხატავს შეშფოთებას ასეთი მოდელების ობიექტურობის შესახებ. ამ საკითხის გადასაჭრელად, ევროპის საბჭოს მართლმსაჯულების ადმინისტრირების ეფექტიანობის ევროკომისიამ (CEPEJ) შექმნა ექსპერტთა ინტერდისციპლინური პანელი, რომელიც შეიმუშავებს სახელმძღვანელოებს მართლმსაჯულების სისტემებში ალგორითმების ეთიკური გამოყენების შესახებ, მათ შორის შორსმჭვრეტელობას“.

ალგორითმები, რომლებიც ახშობენ გამოხატვისა და შეკრების თავისუფლებას

კიდევ ერთი უფლება, რომელიც საფრთხის ქვეშაა, არის გამოხატვის თავისუფლების უფლება. ევროპის საბჭოს ბოლო პუბლიკაცია „ალგორითმები და ადამიანის უფლებები“, განსაკუთრებით აღნიშნავს, რომ Facebook-სა და YouTube-ს აქვთ ფილტრაციის მექანიზმები ძალადობრივი ექსტრემისტული შინაარსის იდენტიფიცირებისთვის. თუმცა, არ არსებობს ინფორმაცია იმის შესახებ, თუ რა პროცედურები და კრიტერიუმები გამოიყენება ასეთი შინაარსის დასადგენად, ასევე, რომელი ვიდეო შეიცავს „აშკარად უკანონო შინაარსს“. მიუხედავად იმისა, რომ მსგავსი მასალის გავრცელების შეჩერების ინიციატივა თავისთავად დასაფასებელია, შინაარსის ზომიერების გამჭვირვალობის ნაკლებობა შემაშფოთებელია, რადგან ის შეიცავს სიტყვისა და გამოხატვის თავისუფლების ლეგიტიმური უფლების შეზღუდვის რისკს. მსგავსი შეშფოთება გაჩნდა მომხმარებლის მიერ გენერირებული კონტენტის ავტომატურ გაფილტვრასთან დაკავშირებით, რადგან ის იტვირთება ინტელექტუალური საკუთრების უფლებების სავარაუდო დარღვევის გამო, რაც წინა პლანზე წამოვიდა ევროკავშირის საავტორო უფლებების შესახებ შემოთავაზებულ დირექტივაში. ზოგიერთ შემთხვევაში, ინფორმაციის გასავრცელებლად ავტომატური ტექნოლოგიების გამოყენებამ ასევე შეიძლება მნიშვნელოვნად იმოქმედოს გამოხატვის თავისუფლებისა და კონფიდენციალურობის უფლებაზე, როდესაც ბოტები, ტროლების ჯარები, მიზანმიმართული რეკლამები ან სპამი ნაწილდება ალგორითმის აპლიკაციის ფარგლებში, რომელიც განსაზღვრავს კონტენტს კონკრეტული მომხმარებლებისთვის.

კონფლიქტი ტექნოლოგიასა და ადამიანის უფლებებს შორის ვლინდება სახის ამოცნობის სფეროშიც. როგორც ეჭვმიტანილი ტერორისტების თვალყურის დევნების მძლავრი იარაღი, ის ასევე შეიძლება იქცეს ხალხის კონტროლის საშუალებად. ახლა განსაკუთრებით ადვილი გახდა სახელმწიფოებისთვის თქვენი ჯაშუშობა, თქვენს პირად ცხოვრებაში შეჭრა, შეკრების თავისუფლების შეზღუდვა, გადაადგილების თავისუფლება და პრესის თავისუფლება.

რა შეუძლიათ მთავრობებს და კერძო სექტორს?

AI-ს აქვს პოტენციალი, დაეხმაროს ადამიანებს მაქსიმალურად გამოიყენონ დრო, გააფართოვონ თავისუფლება და გახადონ ისინი უფრო ბედნიერი. მაგრამ მას ასევე შეუძლია მიგვიყვანოს დისტოპიურ სამყაროში. ამიტომ, უაღრესად მნიშვნელოვანია ტექნოლოგიურ განვითარებასა და ადამიანის უფლებების დაცვას შორის სწორი ბალანსის პოვნა, რადგან ამაზე იქნება დამოკიდებული საზოგადოების მომავალი, რომელშიც გვინდა ვიცხოვროთ.

ასეთი ბალანსის მისაღწევად საჭიროა უფრო მჭიდრო თანამშრომლობა საჯარო ხელისუფლების (მთავრობები, პარლამენტები, სასამართლო და სამართალდამცავი ორგანოები) და კერძო საწარმოებს, აკადემიურ წრეებს, არასამთავრობო ორგანიზაციებს, საერთაშორისო ორგანიზაციებსა და ზოგადად საზოგადოებას შორის. ამოცანა რთულია, მაგრამ შესასრულებელი.

დღეს უკვე არსებობს მთელი რიგი სტანდარტები, რომლიდანაც უნდა დავიწყოთ. მაგალითად, ადამიანის უფლებათა ევროპული სასამართლოს პრეცედენტები ნათლად ადგენს, თუ როგორ უნდა იყოს დაცული პირადი ცხოვრების ხელშეუხებლობის, თავისუფლებისა და უსაფრთხოების უფლება. ისინი ასევე ხაზს უსვამენ სახელმწიფოების მოვალეობას, უზრუნველყონ ეფექტური საშუალებები კონფიდენციალურობისა და უკანონო მეთვალყურეობის წინააღმდეგ თავდასხმების წინააღმდეგ. გარდა ამისა, წელს მიღებულ იქნა ევროპის საბჭოს განახლებული კონვენცია პერსონალური მონაცემების ავტომატურ დამუშავებასთან დაკავშირებით პირთა დაცვის შესახებ, რომელიც ეხება კონფიდენციალურობის საფრთხეებს, რომლებიც წარმოიქმნება ახალი საინფორმაციო და საკომუნიკაციო ტექნოლოგიებიდან.

მთავრობებმა ასევე უნდა უზრუნველყონ, რომ კერძო კომპანიები, რომლებიც მონაწილეობენ ხელოვნური ინტელექტის შემუშავებასა და განხორციელებაში, შეესაბამება ადამიანის უფლებათა სტანდარტებს. ხელოვნური ინტელექტის ტექნოლოგიის შემქმნელებმა, რომლებსაც შეუძლიათ ჩვენი ცხოვრების გაუმჯობესება, უნდა იმოქმედონ ევროპის საბჭოს რეკომენდაციების შესაბამისად ბიზნესსა და ადამიანის უფლებებს შორის ურთიერთობის, ინტერნეტ შუამავლების როლისა და პასუხისმგებლობის შესახებ, ასევე გაეროს სახელმძღვანელოს შესაბამისად. ბიზნესისა და ადამიანის უფლებების პრინციპები და გაეროს სპეციალური მომხსენებლის მიერ მომზადებული ანგარიში შინაარსის რეგულირების შესახებ აზრისა და გამოხატვის თავისუფლების ხელშეწყობისა და დაცვის შესახებ. გადაწყვეტილების მიღების პროცესები, რომლებიც იყენებენ ალგორითმებს, უნდა გახდეს უფრო გამჭვირვალე, რათა მათი ლოგიკა ნათელი გახდეს, პასუხისმგებლობა ეკისრება ამგვარი ალგორითმების გამოყენებას და ასევე შესაძლებელია მონაცემთა ავტომატური შეგროვებისა და დამუშავების პროცესების საფუძველზე მიღებული გადაწყვეტილებების ეფექტურად გამოწვევა.

საქმიანობის მესამე სფერო არის ადამიანების წიგნიერების გაზრდა ხელოვნური ინტელექტის სფეროში. მთავრობებმა მეტი ინვესტიცია უნდა განახორციელონ განათლებასა და საგანმანათლებლო ინიციატივებში, გააუმჯობესონ თავიანთი მოქალაქის და განსაკუთრებით ახალგაზრდა თაობის კომპეტენცია, რათა მათ ჰქონდეთ დადებითი გამოცდილება ხელოვნური ინტელექტის გამოყენებით და უკეთ გაიგონ, როგორ აისახება ეს ჩვენს ცხოვრებაზე. და ბოლოს, ადამიანის უფლებათა ეროვნულ სტრუქტურებს უნდა შეეძლოთ შეეწინააღმდეგონ ახალი ტიპის დისკრიმინაციას, რომელიც გამოწვეულია ხელოვნური ინტელექტის გამოყენებით.

გამამხნევებელია კერძო სექტორის სურვილი განიხილოს ადამიანის უფლებათა დაცვის საკითხები. როგორც ადამიანის უფლებათა კომისარი, ვაპირებ ამ თემაზე გავამახვილო ყურადღება ჩემი მუშაობის პერიოდში. მე ვაპირებ უკეთ გავიგო ამ სფეროში არსებული ძირითადი გამოწვევები და დავეხმარო წევრ სახელმწიფოებს მათთან გამკლავებაში, ადამიანის უფლებების პატივისცემით. ცოტა ხნის წინ, ესტონეთში ვიზიტის დროს, მე და ამ ქვეყნის პრემიერ-მინისტრმა ნაყოფიერი დისკუსია გვქონდა ხელოვნურ ინტელექტსა და ადამიანის უფლებებთან დაკავშირებულ საკითხებზე.

გაზიარება

Share

Comments
Details
    გაზიარება
    Picture

    RSS Feed

Powered by Create your own unique website with customizable templates.
  • მთავარი