შესვლა up

პოზიციის ქაღალდი

სწრაფად განვითარებადი ციფრული და მასთან დაკავშირებული ტექნოლოგიების შეფასების ჩარჩო: AI, დიდი ენობრივი მოდელები და მის ფარგლებს გარეთ

ეს სადისკუსიო ქაღალდი იძლევა საწყისი ჩარჩოს მონახაზს, რათა ინფორმირდეს მრავალჯერადი გლობალური და ეროვნული დისკუსიები, რომლებიც მიმდინარეობს AI-სთან დაკავშირებით.

რამდენიმე აკადემიკოსმა და პოლიტიკის ექსპერტმა შესთავაზა, რომ საერთაშორისო სამეცნიერო საბჭომ – თავისი პლურალისტური წევრობით სოციალური და საბუნებისმეტყველო მეცნიერებებიდან – შექმნას პროცესი რისკების, სარგებელის, საფრთხეებისა და შესაძლებლობების ანოტირებული ჩარჩოს/საკონტროლო სიის შესაქმნელად და შესანარჩუნებლად. ასოცირდება სწრაფად მოძრავ ციფრულ ტექნოლოგიებთან, მათ შორის - მაგრამ არ შემოიფარგლება - AI. საკონტროლო სიის მიზანი იქნება ყველა დაინტერესებული მხარის - მათ შორის მთავრობების, სავაჭრო მომლაპარაკებლების, მარეგულირებლების, სამოქალაქო საზოგადოებისა და ინდუსტრიის ჩათვლით - ინფორმირება პოტენციური სამომავლო სცენარების შესახებ და ასახავს იმას, თუ როგორ შეიძლება განიხილონ შესაძლებლობები, სარგებელი, რისკები და სხვა საკითხები.

ISC მოხარულია წარმოგიდგინოთ ეს სადისკუსიო ნაშრომი სწრაფად განვითარებადი ციფრული და მასთან დაკავშირებული ტექნოლოგიების შეფასების შესახებ. ხელოვნური ინტელექტი, სინთეზური ბიოლოგია და კვანტური ტექნოლოგიები მეცნიერების მიერ ინფორმირებული ინოვაციის მთავარი მაგალითებია, რომლებიც წარმოიქმნება უპრეცედენტო ტემპით. შეიძლება რთული იყოს არა მხოლოდ მათი აპლიკაციების, არამედ მათი შედეგების სისტემატური წინასწარ განსაზღვრა.

გენერაციული ხელოვნური ინტელექტის სოციალური ასპექტების შეფასება, როგორიცაა დიდი ენობრივი მოდელები, რომლებიც პროგნოზირებად წარმოადგენენ ამ სადისკუსიო ნაშრომის ძირითად ნაწილს, არის საჭირო ხიდი მიმდინარე დისკურსში - ზოგჯერ პანიკისკენ მიდრეკილი, ზოგჯერ არა საკმარისად ღრმა აზროვნებით - და აუცილებელი კურსები. ჩვენ შეგვიძლია მივიღოთ მოქმედება. ISC დარწმუნებულია, რომ საჭიროა ანალიტიკური ჩარჩო ასეთი ახალი ტექნოლოგიების სოციალურ მიღებასა და მათ შესაძლო რეგულირებას შორის, რათა ხელი შეუწყოს მრავალმხრივ დისკუსიას, რომელიც საჭიროა ინფორმირებული და პასუხისმგებელი გადაწყვეტილებების მისაღებად, თუ როგორ უნდა მოხდეს ამ სწრაფად განვითარებადი ტექნოლოგიის სოციალური სარგებლის ოპტიმიზაცია.

ISC ღიაა ჩვენი საზოგადოების მხრიდან ამ სადისკუსიო ნაშრომის გამოხმაურებისთვის, რათა შეაფასოს, როგორ გავაგრძელოთ ტექნოლოგიის ირგვლივ დებატებში მონაწილეობა.

სალვატორ არიკო, აღმასრულებელი დირექტორი
ISC სადისკუსიო ნაშრომი

ISC სადისკუსიო ნაშრომი

სწრაფად განვითარებადი ციფრული და მასთან დაკავშირებული ტექნოლოგიების შეფასების ჩარჩო: AI, დიდი ენობრივი მოდელები და მის ფარგლებს გარეთ

ეს სადისკუსიო ქაღალდი იძლევა საწყისი ჩარჩოს მონახაზს, რათა ინფორმირდეს მრავალჯერადი გლობალური და ეროვნული დისკუსიები, რომლებიც მიმდინარეობს AI-სთან დაკავშირებით.

გადმოწერეთ ანგარიში

ახალი! წაიკითხეთ 2024 წლის ვერსია პოლიტიკის შემქმნელებისთვის თქვენი ორგანიზაციისთვის ჩამოტვირთული ჩარჩოებით.

სახელმძღვანელო პოლიტიკის შემქმნელებისთვის: სწრაფად განვითარებადი ტექნოლოგიების შეფასება ხელოვნური ინტელექტის ჩათვლით, დიდი ენობრივი მოდელები და სხვა

ეს სადისკუსიო ქაღალდი იძლევა საწყისი ჩარჩოს მონახაზს, რათა ინფორმირდეს მრავალჯერადი გლობალური და ეროვნული დისკუსიები, რომლებიც მიმდინარეობს AI-სთან დაკავშირებით.

წაიკითხეთ 2023 წლის ISC სადისკუსიო ნაშრომი ონლაინ ან თქვენთვის სასურველ ენაზე

შინაარსი

  • შესავალი 
  • ಹಿನ್ನೆಲೆ 
  • ანალიტიკური ჩარჩოს შემუშავება 
  • ანალიტიკური ჩარჩოს გამოყენება 
  • ზომები, რომლებიც გასათვალისწინებელია ახალი ტექნოლოგიის შეფასებისას 
  • წინსვლის გზა 
  • მადლობა

შესავალი

სწრაფად განვითარებადი ტექნოლოგიები წარმოადგენენ რთულ საკითხებს, როდესაც საქმე ეხება მათ მმართველობას და პოტენციურ რეგულირებას. პოლიტიკამ და საჯარო დებატებმა ხელოვნური ინტელექტის (AI) და მისი გამოყენების შესახებ ეს საკითხები მწვავე ყურადღების ცენტრში მოაქცია. მიუხედავად იმისა, რომ ხელოვნური ინტელექტის ფართო პრინციპები გამოქვეყნებულია იუნესკოს, OECD-ისა და სხვათა მიერ, და მიმდინარეობს ახალი დისკუსიები ტექნოლოგიის გლობალურ ან იურისდიქციულ რეგულირებასთან დაკავშირებით, არსებობს ონტოლოგიური უფსკრული მაღალი დონის პრინციპების შემუშავებასა და მათ მარეგულირებელ პოლიტიკაში ჩართვას შორის. მმართველობისა და მეურვეობის მიდგომები. სწორედ აქ შეიძლება ჰქონდეს განსაკუთრებული როლი არასამთავრობო სამეცნიერო საზოგადოებას. 

რამდენიმე აკადემიკოსმა და პოლიტიკის ექსპერტმა შესთავაზა, რომ საერთაშორისო სამეცნიერო საბჭომ (ISC) - თავისი პლურალისტური წევრობით სოციალური და საბუნებისმეტყველო მეცნიერებებიდან - შექმნას პროცესი რისკების, სარგებელის ანოტირებული ჩარჩოს/საკონტროლო სიის შესაქმნელად და შესანარჩუნებლად. საფრთხეები და შესაძლებლობები, რომლებიც დაკავშირებულია სწრაფად მოძრავ ციფრულ ტექნოლოგიებთან, მათ შორის - მაგრამ არ შემოიფარგლება - AI. საკონტროლო სიის მიზანი იქნება ყველა დაინტერესებული მხარის - მათ შორის მთავრობების, სავაჭრო მომლაპარაკებლების, მარეგულირებლების, სამოქალაქო საზოგადოებისა და ინდუსტრიის ჩათვლით - ინფორმირება პოტენციური სამომავლო სცენარების შესახებ და ასახავს იმას, თუ როგორ შეიძლება განიხილონ შესაძლებლობები, სარგებელი, რისკები და სხვა საკითხები. 

შედეგები არ იმოქმედებს როგორც შეფასების ორგანო, არამედ როგორც ადაპტირებადი და განვითარებადი ანალიტიკური ჩარჩო, რომელიც შეიძლება დაეყრდნოს ნებისმიერ შეფასებას და მარეგულირებელ პროცესს, რომელიც შეიძლება განვითარდეს დაინტერესებული მხარეების მიერ, მათ შორის მთავრობებისა და მრავალმხრივი სისტემის მიერ. ნებისმიერი ანალიტიკური ჩარჩო იდეალურად უნდა იყოს შემუშავებული სამთავრობო და ინდუსტრიის პრეტენზიებისგან დამოუკიდებლად, მათი გასაგები ინტერესებიდან გამომდინარე. ის ასევე უნდა იყოს მაქსიმალურად პლურალისტური თავის პერსპექტივაში, რაც მოიცავს ტექნოლოგიის ყველა ასპექტს და მის შედეგებს. 

ეს სადისკუსიო ქაღალდი იძლევა საწყისი ჩარჩოს მონახაზს, რათა ინფორმირდეს მრავალჯერადი გლობალური და ეროვნული დისკუსიები, რომლებიც მიმდინარეობს AI-სთან დაკავშირებით. 

ფონი: რატომ არის ანალიტიკური ჩარჩო?

ტექნოლოგიის სწრაფი გაჩენა ხელოვნური ინტელექტის სირთულითა და შედეგებით, იწვევს ბევრ პრეტენზიას დიდ სარგებელს. თუმცა, ის ასევე იწვევს მნიშვნელოვანი რისკების შიშს, ინდივიდუალურიდან გეოსტრატეგიულ დონეზე. დისკუსიის დიდი ნაწილი მიდრეკილია შეხედულებათა სპექტრის უკიდურეს ბოლოებზე და უფრო პრაგმატული მიდგომაა საჭირო. AI ტექნოლოგია გააგრძელებს განვითარებას და ისტორია აჩვენებს, რომ პრაქტიკულად ყველა ტექნოლოგიას აქვს როგორც სასარგებლო, ასევე მავნე გამოყენება. მაშასადამე, საკითხავია: როგორ მივაღწიოთ ამ ტექნოლოგიით სასიკეთო შედეგებს, და ამავდროულად შევამციროთ მავნე შედეგების რისკი, რომელთაგან ზოგიერთი შეიძლება იყოს ეგზისტენციალური მასშტაბით? 

მომავალი ყოველთვის გაურკვეველია, მაგრამ არსებობს საკმარისი სანდო და ექსპერტი ხმები AI-სა და გენერაციულ AI-სთან დაკავშირებით შედარებით პრევენციული მიდგომის წახალისებისთვის. გარდა ამისა, საჭიროა სისტემური მიდგომა, რადგან ხელოვნური ინტელექტი არის ტექნოლოგიების კლასი, რომელსაც ფართო გამოყენება და გამოყენება აქვს მრავალი ტიპის მომხმარებლის მიერ. ეს ნიშნავს, რომ სრული კონტექსტი უნდა იყოს გათვალისწინებული, როდესაც განიხილება ხელოვნური ინტელექტის გავლენა ინდივიდებზე, სოციალურ ცხოვრებაზე, სამოქალაქო ცხოვრებაზე, საზოგადოებრივ ცხოვრებაზე და გლობალურ კონტექსტში. 

წინა ტექნოლოგიების უმეტესობისგან განსხვავებით, ციფრულ და მასთან დაკავშირებულ ტექნოლოგიებს აქვს ძალიან მოკლე დრო დამუშავებიდან გამოშვებამდე, რაც ძირითადად განპირობებულია მწარმოებელი კომპანიების ან სააგენტოების ინტერესებით. AI სწრაფად ვრცელდება; ზოგიერთი თვისება შეიძლება გამოჩნდეს მხოლოდ გამოშვების შემდეგ და ტექნოლოგიას შეიძლება ჰქონდეს როგორც მავნე, ისე კეთილგანწყობილი აპლიკაციები. მნიშვნელოვანი მნიშვნელობების ზომები გავლენას მოახდენს ნებისმიერი გამოყენების აღქმაზე. გარდა ამისა, შეიძლება არსებობდეს გეო-სტრატეგიული ინტერესები. 

დღეისათვის, ვირტუალური ტექნოლოგიის რეგულირება დიდწილად განიხილება "პრინციპების" და ნებაყოფლობითი შესაბამისობის თვალით. თუმცა, სულ ცოტა ხნის წინ, დისკუსია შეეხო ეროვნული და მრავალმხრივი მმართველობის საკითხებს, მათ შორის მარეგულირებელი და სხვა პოლიტიკის ინსტრუმენტების გამოყენებას. ხელოვნური ინტელექტის მომხრე ან მის წინააღმდეგ გაკეთებული პრეტენზიები ხშირად ჰიპერბოლურია და – ტექნოლოგიის ბუნების გათვალისწინებით – ძნელი შესაფასებელი. ეფექტური გლობალური ან ეროვნული ტექნოლოგიების რეგულირების სისტემის ჩამოყალიბება რთული იქნება და რისკზე ინფორმირებული გადაწყვეტილების მიღების მრავალი ფენა იქნება საჭირო ჯაჭვის გასწვრივ, გამომგონებლიდან მწარმოებელამდე, მომხმარებლამდე, მთავრობამდე და მრავალმხრივ სისტემამდე. 

მიუხედავად იმისა, რომ მაღალი დონის პრინციპები გამოაქვეყნეს იუნესკომ, OECD და ევროკომისიამ, სხვათა შორის, და მიმდინარეობს სხვადასხვა მაღალი დონის დისკუსიები პოტენციური რეგულირების საკითხებთან დაკავშირებით, არსებობს დიდი ონტოლოგიური უფსკრული ასეთ პრინციპებსა და მმართველობასა თუ მარეგულირებელ ჩარჩოს შორის. რა არის იმ მოსაზრებების ტაქსონომია, რომლის გათვალისწინებაც შეიძლება სჭირდებოდეს მარეგულირებელს? ვიწრო ფოკუსირებული ჩარჩო არ იქნება გონივრული, ამ ტექნოლოგიების ფართო გავლენის გათვალისწინებით. ეს პოტენციალი მრავალი კომენტარის საგანი გახდა, როგორც დადებითი, ასევე უარყოფითი.

ანალიტიკური ჩარჩოს შემუშავება

ISC არის ძირითადი გლობალური არასამთავრობო ორგანიზაცია, რომელიც აერთიანებს ბუნებრივ და სოციალურ მეცნიერებებს. მისი გლობალური და დისციპლინური წვდომა ნიშნავს, რომ მას კარგად აქვს ადგილი დამოუკიდებელი და გლობალურად შესაბამისი რჩევების შესაქმნელად, რათა აცნობოს მომავალი კომპლექსური არჩევანის შესახებ, განსაკუთრებით იმის გამო, რომ ამ ასპარეზზე ამჟამინდელი ხმები ძირითადად ინდუსტრიიდან ან ძირითადი ტექნოლოგიური ძალებისგან მოდის. ბოლო თვეების ვრცელი დისკუსიის შემდეგ, მათ შორის არასამთავრობო შეფასების პროცესის განხილვის შემდეგ, ISC-მ დაასკვნა, რომ მისი ყველაზე სასარგებლო წვლილი იქნება ადაპტური ანალიტიკური ჩარჩოს შექმნა და შენარჩუნება, რომელიც შეიძლება გამოყენებულ იქნას როგორც საფუძველი დისკურსისა და გადაწყვეტილების მიღებისათვის. ყველა დაინტერესებული მხარე, მათ შორის ნებისმიერი ფორმალური შეფასების პროცესის დროს, რომელიც გამოჩნდება. 

ეს ჩარჩო მიიღებს ყოვლისმომცველი საკონტროლო სიის ფორმას, რომელიც შეიძლება გამოიყენონ როგორც სამთავრობო, ისე არასამთავრობო ინსტიტუტებმა. ჩარჩო იდენტიფიცირებს და იკვლევს ისეთი ტექნოლოგიის პოტენციალს, როგორიცაა ხელოვნური ხელოვნური ინტელექტი და მისი წარმოებულები ფართო ლინზებით, რომელიც მოიცავს ადამიანის და საზოგადოების კეთილდღეობას, ასევე გარე ფაქტორებს, როგორიცაა ეკონომიკა, პოლიტიკა, გარემო და უსაფრთხოება. საკონტროლო სიის ზოგიერთი ასპექტი შეიძლება იყოს უფრო აქტუალური ვიდრე სხვები, კონტექსტიდან გამომდინარე, მაგრამ უკეთესი გადაწყვეტილებების მიღება უფრო სავარაუდოა, თუ ყველა დომენს განიხილავს. ეს არის საკონტროლო სიის მიდგომის თანდაყოლილი მნიშვნელობა. 

შემოთავაზებული ჩარჩო მიღებულია წინა სამუშაოდან და აზროვნებიდან, მათ შორის სამთავრობო სამეცნიერო რჩევების საერთაშორისო ქსელის (INGSA) ციფრული კეთილდღეობის ანგარიშიდან.1 და OECD AI კლასიფიკაციის ჩარჩო2 AI-ის პოტენციური შესაძლებლობების, რისკებისა და ზემოქმედების მთლიანობის წარმოჩენა. ეს წინა პროდუქტები უფრო შეზღუდული იყო მათი განზრახვით, მათი დროისა და კონტექსტიდან გამომდინარე, საჭიროა ყოვლისმომცველი ჩარჩო, რომელიც წარმოადგენს საკითხების სრულ სპექტრს როგორც მოკლე, ასევე გრძელვადიან პერსპექტივაში. 

მიუხედავად იმისა, რომ შემუშავებულია ხელოვნური ინტელექტის განსახილველად, ეს ანალიტიკური ჩარჩო შეიძლება გამოყენებულ იქნას ნებისმიერ სწრაფად განვითარებად ტექნოლოგიაზე. საკითხები ფართოდ იყოფა შემდეგ კატეგორიებად შემდგომი გამოკვლევისთვის: 

  • კეთილდღეობა (პიროვნების ან საკუთარი თავის, საზოგადოებისა და სოციალური ცხოვრებისა და სამოქალაქო ცხოვრების ჩათვლით) 
  • ვაჭრობა და ეკონომიკა 
  • გარემოს 
  • გეო-სტრატეგიული და გეოპოლიტიკური 
  • ტექნოლოგიური (სისტემის მახასიათებლები, დიზაინი და გამოყენება) 

თითოეული ზემოაღნიშნული კატეგორიის მოსაზრებების სია შედის მათ შესაბამის შესაძლებლობებთან და შედეგებთან ერთად. ზოგიერთი რელევანტურია AI-ს კონკრეტული შემთხვევებისთვის ან აპლიკაციებისთვის, ზოგი კი ზოგადი და აგნოსტიკოსია პლატფორმის ან გამოყენებისთვის. აქ შეტანილი არც ერთი მოსაზრება არ უნდა განიხილებოდეს პრიორიტეტულად და, როგორც ასეთი, ყველა უნდა განიხილებოდეს. 

როგორ შეიძლება ამ ჩარჩოს გამოყენება?

ეს ჩარჩო შეიძლება გამოყენებულ იქნას, მაგრამ არ შემოიფარგლება, შემდეგი გზებით: 

  • პრინციპებსა და შეფასებას შორის უფსკრული გადალახოს მოსაზრებების სპექტრის დადასტურებული საერთო ტაქსონომიის დადგენით, რომელიც შეიძლება გამოყენებულ იქნას შესაბამისი დაინტერესებული მხარეების მიერ, როგორც საფუძველი შემდგომი აზროვნების ინფორმირებისთვის და ჩამოყალიბებისთვის, მათ შორის ნებისმიერი შეფასების ჩარჩო, რომელიც შეიძლება შეიმუშაოს ხელისუფლების მიერ. 
  • ზემოქმედების შეფასების ინფორმირება. ევროკავშირის AI აქტი მოითხოვს ორგანიზაციებს, რომლებიც უზრუნველყოფენ AI ინსტრუმენტებს ან იღებენ AI-ს თავიანთ პროცესებში, განახორციელონ ზემოქმედების შეფასება თავიანთი ინიციატივების რისკის დასადგენად და გამოიყენონ რისკის მართვის შესაბამისი მიდგომა. აქ წარმოდგენილი ჩარჩო შეიძლება გამოყენებულ იქნას, როგორც საფუძველი. 
  • გააძლიეროს ეთიკური პრინციპები, რომლებიც საჭიროა ხელოვნური ინტელექტის გამოყენების ხელმძღვანელობისა და მართვისთვის. ჩარჩოს შეუძლია ამის გაკეთება მოქნილი საფუძვლის უზრუნველყოფით, რომელზედაც შეიძლება განვითარდეს სანდო სისტემები და უზრუნველყოს ტექნოლოგიის კანონიერი, ეთიკური, ძლიერი და პასუხისმგებელი გამოყენება. ეს პრინციპები შეიძლება შემოწმდეს ამ ჩარჩოში წარმოდგენილი ზემოქმედებების მთელი სპექტრის წინააღმდეგ. 
  • არსებული ზომების (მაგ., მარეგულირებელი, საკანონმდებლო, პოლიტიკა) აღრიცხვის ხელშეწყობა და ნებისმიერი ხარვეზის იდენტიფიცირება, რომელიც შემდგომ განხილვას საჭიროებს. 
  • ჩარჩო აგნოსტიკურია ტექნოლოგიისა და მისი გამოყენების მიმართ. ამიტომ მისი გამოყენება შეიძლება საკმაოდ განსხვავებულ სფეროებში, როგორიცაა სინთეზური ბიოლოგია. 

შემდეგი ცხრილი არის ანალიტიკური ჩარჩოს ზომების ადრეული ფორმირება. ტექნოლოგიიდან და მისი გამოყენების მიხედვით, ზოგიერთი კომპონენტი უფრო აქტუალური იქნება, ვიდრე სხვები. მაგალითები მოწოდებულია იმის საილუსტრაციოდ, თუ რატომ შეიძლება იყოს თითოეული დომენის მნიშვნელობა; კონტექსტში, ჩარჩო საჭიროებს კონტექსტურ შესაბამის გაფართოებას. ასევე მნიშვნელოვანია განასხვავოთ პლატფორმის განვითარება და ზოგადი საკითხები, რომლებიც შეიძლება წარმოიშვას კონკრეტული აპლიკაციების დროს.  

ზომები, რომლებიც გასათვალისწინებელია ახალი ტექნოლოგიის შეფასებისას

განზომილებების საწყისი პროექტი, რომელიც შეიძლება საჭირო გახდეს ახალი ტექნოლოგიის შეფასებისას
ზემოქმედების ზომები კრიტერიუმები მაგალითები, თუ როგორ შეიძლება ეს აისახოს ანალიზში  
ინდივიდუალური/თვითონ  მომხმარებლის AI კომპეტენცია  რამდენად კომპეტენტური და ინფორმირებული არიან სისტემის თვისებების შესახებ სავარაუდო მომხმარებლები, რომლებიც ურთიერთობენ სისტემასთან? როგორ მიეწოდება მათ მომხმარებლის შესაბამისი ინფორმაცია და გაფრთხილება? 
გავლენიანი დაინტერესებული მხარეები  ვინ არიან ძირითადი დაინტერესებული მხარეები, რომლებზეც სისტემა გავლენას მოახდენს (ანუ, ინდივიდები, თემები, დაუცველი, სექტორის მუშები, ბავშვები, პოლიტიკის შემქმნელები, პროფესიონალები)? 
არჩევითობა მიეწოდებათ თუ არა მომხმარებლებს სისტემაზე უარის თქმის შესაძლებლობა; უნდა მიეცეს მათ შესაძლებლობა გამოწვევის ან გამოსწორების მიზნით?  
რისკები ადამიანის უფლებებისა და დემოკრატიული ღირებულებებისთვის  შეიძლება თუ არა სისტემამ გავლენა მოახდინოს (და რა მიმართულებით) ადამიანის უფლებებზე, მათ შორის, მაგრამ არ შემოიფარგლება, კონფიდენციალურობაზე, გამოხატვის თავისუფლებაზე, სამართლიანობაზე, დისკრიმინაციის რისკზე და ა.შ.? 
პოტენციური გავლენა ადამიანების კეთილდღეობაზე შეიძლება თუ არა სისტემამ გავლენა მოახდინოს (და რა მიმართულებით) ინდივიდუალური მომხმარებლის კეთილდღეობაზე (ანუ სამუშაოს ხარისხზე, განათლებაზე, სოციალურ ურთიერთობებზე, ფსიქიკურ ჯანმრთელობაზე, იდენტობაზე, გარემოზე)?  
ადამიანთა შრომითი გადაადგილების პოტენციალი არის თუ არა სისტემას შესაძლებლობა მოახდინოს ადამიანების მიერ შესრულებული ამოცანების ან ფუნქციების ავტომატიზაცია? თუ ასეა, რა შედეგები მოჰყვება ქვემოთ? 
იდენტობის, ღირებულებების ან ცოდნის მანიპულირების პოტენციალი არის თუ არა სისტემა შექმნილი იმისთვის, რომ ან პოტენციურად შეუძლია მომხმარებლის იდენტობის ან ღირებულებების მანიპულირება, ან დეზინფორმაციის გავრცელება? არის თუ არა ექსპერტიზის ცრუ ან დაუდასტურებელი პრეტენზიების პოტენციალი? 
თვითშეფასების ზომები არის თუ არა ზეწოლა იდეალიზებული მე-ს წარმოსაჩენად? შეიძლება ავტომატიზაციამ ჩაანაცვლოს პიროვნული შესრულების გრძნობა? არის თუ არა ზეწოლა სისტემასთან კონკურენცია სამუშაო ადგილზე? რთულდება თუ არა ინდივიდუალური რეპუტაციის დაცვა დეზინფორმაციისგან? 
Privacy არის თუ არა განაწილებული პასუხისმგებლობა კონფიდენციალურობის დაცვაზე და არის თუ არა რაიმე ვარაუდი იმის შესახებ, თუ როგორ ხდება პერსონალური მონაცემების გამოყენება?  
ავტონომია შეიძლება თუ არა სისტემამ გავლენა მოახდინოს ადამიანის ავტონომიაზე საბოლოო მომხმარებლების მიერ ტექნოლოგიაზე ზედმეტად დამოკიდებულების გამომუშავებით? 
ადამიანის განვითარება აქვს თუ არა გავლენა ადამიანის განვითარებისთვის საკვანძო უნარების შეძენაზე, როგორიცაა აღმასრულებელი ფუნქციები, ინტერპერსონალური უნარები, ყურადღების დროის ცვლილება, რომელიც გავლენას ახდენს სწავლაზე, პიროვნების განვითარებაზე, ფსიქიკური ჯანმრთელობის პრობლემები და ა.შ.?  
პირადი ჯანმრთელობის დაცვა არსებობს თუ არა პრეტენზია პერსონალიზებული ჯანდაცვის გადაწყვეტილებებზე? თუ ასეა, არის თუ არა ისინი დამოწმებული მარეგულირებელი სტანდარტების მიხედვით? 
ფსიქიკური ჯანმრთელობის არსებობს თუ არა გაზრდილი შფოთვის, მარტოობის ან ფსიქიკური ჯანმრთელობის სხვა პრობლემების რისკი, ან შეუძლია თუ არა ტექნოლოგიამ შეამსუბუქოს ასეთი ზემოქმედება? 
ადამიანის ევოლუცია შეიძლება ტექნოლოგიამ გამოიწვიოს ცვლილებები ადამიანის ევოლუციაში?  
ზემოქმედების ზომები კრიტერიუმები აღწერა 
საზოგადოება/სოციალური ცხოვრება სოციალური ღირებულებები  სისტემა ძირეულად ცვლის საზოგადოების ბუნებას ან იძლევა თუ არა იდეების ნორმალიზებას, რომლებიც ადრე ანტისოციალურად ითვლებოდა, ან არღვევს თუ არა ის კულტურის სოციალურ ღირებულებებს, რომელშიც ის გამოიყენება?  
სოციალური ინტერაქცია აქვს თუ არა გავლენა ადამიანურ კონტაქტზე, მათ შორის ემოციურ ურთიერთობებზე?  
კაპიტალი შეიძლება თუ არა აპლიკაცია/ტექნოლოგია შეამციროს ან გააძლიეროს უთანასწორობა (ანუ ეკონომიკური, სოციალური, საგანმანათლებლო, გეოგრაფიული)? 
მოსახლეობის ჯანმრთელობა არის თუ არა სისტემის პოტენციალი, წინ წაიწიოს ან შეარყიოს მოსახლეობის ჯანმრთელობის მიზნები? 
კულტურული გამოხატულება კულტურული მითვისების ან დისკრიმინაციის ზრდა სავარაუდოა თუ უფრო რთული? გადაწყვეტილების მიღების სისტემაზე დამოკიდებულება პოტენციურად გამორიცხავს ან მარგინალიზებს საზოგადოების ნაწილებს? 
საჯარო განათლება აქვს თუ არა გავლენა მასწავლებლის როლებზე ან საგანმანათლებლო დაწესებულებებზე? ხაზს უსვამს თუ არა სისტემა სტუდენტებს შორის უთანასწორობას და ციფრულ განხეთქილებას? ცოდნის ან კრიტიკული გაგების შინაგანი ღირებულება დაწინაურებულია თუ ძირს უთხრის?  
დამახინჯებული რეალობა არის თუ არა ის მეთოდები, რომლებსაც ჩვენ ვიყენებთ იმის გასარკვევად, თუ რა არის ჭეშმარიტი? არის თუ არა კომპრომეტირებული რეალობის აღქმა?  
ეკონომიკური კონტექსტი (ვაჭრობა)         სამრეწველო სექტორი რომელ ინდუსტრიულ სექტორშია განლაგებული სისტემა (ანუ, ფინანსები, სოფლის მეურნეობა, ჯანდაცვა, განათლება, თავდაცვა)? 
Ბიზნეს მოდელი რომელ ბიზნეს ფუნქციაშია დასაქმებული სისტემა და რა ფუნქციით? სად გამოიყენება სისტემა (კერძო, საჯარო, არაკომერციული)? 
გავლენა კრიტიკულ აქტივობებზე  იმოქმედებს თუ არა სისტემის ფუნქციის ან აქტივობის დარღვევა ძირითად სერვისებზე ან კრიტიკულ ინფრასტრუქტურაზე?  
განლაგების სუნთქვა როგორ არის სისტემა განლაგებული (ვიწრო ორგანიზაციის შიგნით და ფართოდ გავრცელებული ეროვნულ/საერთაშორისო)? 
ტექნიკური სიმწიფე (TRL) რამდენად ტექნიკურად მომწიფებულია სისტემა?  
ტექნოლოგიური სუვერენიტეტი განაპირობებს თუ არა ტექნოლოგია ტექნოლოგიური სუვერენიტეტის უფრო მეტ კონცენტრაციას.  
შემოსავლების გადანაწილება და ეროვნული ფისკალური ბერკეტები შეიძლება თუ არა სუვერენული სახელმწიფოს ძირითადი როლები (ანუ სარეზერვო ბანკები) კომპრომეტირებული იყოს? გაუმჯობესდება თუ შემცირდება სახელმწიფოს შესაძლებლობა, დააკმაყოფილოს მოქალაქეების მოლოდინები და შედეგები (ანუ სოციალური, ეკონომიკური, პოლიტიკური)?  
ზემოქმედების ზომები კრიტერიუმები აღწერა 
სამოქალაქო ცხოვრება     მმართველობა და საჯარო სამსახური შეიძლება თუ არა მართვის მექანიზმებზე და გლობალური მმართველობის სისტემებზე დადებითი ან უარყოფითი ზემოქმედება? 
ახალი ამბების მედია შესაძლებელია თუ არა საჯარო დისკურსი მეტ-ნაკლებად პოლარიზებული და გამყარებული მოსახლეობის დონეზე? ექნება თუ არა გავლენა მედიის მიმართ ნდობის დონეს? კიდევ უფრო დაზარალდება ჩვეულებრივი ჟურნალისტური ეთიკა და მთლიანობის სტანდარტები?  
კანონის უზენაესობა ექნება თუ არა გავლენა ინდივიდების ან ორგანიზაციების იდენტიფიცირების უნარზე, რათა პასუხისმგებლობა დაეკისროს (ანუ, რა სახის პასუხისმგებლობა უნდა მიენიჭოს ალგორითმს არასასურველი შედეგებისთვის)? იწვევს თუ არა ეს სუვერენიტეტის დაკარგვას (ანუ გარემოსდაცვითი, ფისკალური, სოციალური პოლიტიკის, ეთიკის)?  
პოლიტიკა და სოციალური ერთიანობა არის თუ არა უფრო გამყარებული პოლიტიკური შეხედულებების და კონსენსუსის შექმნის ნაკლები შესაძლებლობა? არის თუ არა ჯგუფების შემდგომი მარგინალიზაციის შესაძლებლობა? მეტ-ნაკლებად მოსალოდნელია პოლიტიკის მოწინააღმდეგე სტილი? 
გეო-სტრატეგიული/გეოპოლიტიკური კონტექსტი     ზუსტი მეთვალყურეობა არის თუ არა სისტემები მომზადებული ინდივიდუალურ ქცევით და ბიოლოგიურ მონაცემებზე და თუ ასეა, შეიძლება თუ არა მათი გამოყენება ინდივიდების ან ჯგუფების გამოსაყენებლად? 
ციფრული კოლონიზაცია შეუძლიათ თუ არა სახელმწიფო თუ არასახელმწიფო აქტორებს გამოიყენონ სისტემები და მონაცემები სხვა ქვეყნების მოსახლეობისა და ეკოსისტემების გასაგებად და გასაკონტროლებლად, ან შეარყიონ იურისდიქციის კონტროლი? 
გეოპოლიტიკური კონკურენცია ახდენს თუ არა სისტემა გავლენას ქვეყნებსა და ტექნოლოგიურ პლატფორმებს შორის კონკურენციაზე ეკონომიკური ან სტრატეგიული მიზნებისთვის ინდივიდუალურ და კოლექტიურ მონაცემებზე წვდომისათვის? 
სავაჭრო და სავაჭრო ხელშეკრულებები აქვს თუ არა სისტემა გავლენას საერთაშორისო სავაჭრო ხელშეკრულებებზე? 
გლობალური ძალების ცვლილება არის თუ არა საფრთხის ქვეშ მყოფი ეროვნული სახელმწიფოების, როგორც მსოფლიოს უპირველესი გეოპოლიტიკური აქტორების სტატუსი? გამოიყენებენ თუ არა ტექნოლოგიური კომპანიები ძალაუფლებას ოდესღაც ეროვნული სახელმწიფოებისთვის და ხდებიან თუ არა ისინი დამოუკიდებელი სუვერენული აქტორები?  
დეზინფორმაცია არის თუ არა უფრო ადვილი სახელმწიფო და არასახელმწიფო აქტორებისთვის დეზინფორმაციის წარმოება და გავრცელება, რომელიც გავლენას ახდენს სოციალურ ერთიანობაზე, ნდობასა და დემოკრატიაზე?  
გარემოს   ენერგიისა და რესურსების მოხმარება (ნახშირბადის კვალი) გაზრდის თუ არა სისტემა და მოთხოვნები ენერგიისა და რესურსების მოხმარებას აპლიკაციის საშუალებით მიღებულ ეფექტურობის მიღწევებზე მეტად?  
ზემოქმედების ზომები კრიტერიუმები აღწერა 
მონაცემები და შეყვანა          გამოვლენა და შეგროვება  მონაცემები და მონაცემები გროვდება ადამიანების, ავტომატური სენსორების ან ორივეს მიერ?  
მონაცემთა წარმოშობა  რაც შეეხება მონაცემებს, არის ეს მოწოდებული, დაკვირვებული, სინთეზური თუ მიღებული? არსებობს წყლის ნიშნის დაცვა წარმოშობის დასადასტურებლად? 
მონაცემთა დინამიური ბუნება არის მონაცემები დინამიური, სტატიკური, დროდადრო განახლებული თუ რეალურ დროში? 
უფლებების არის თუ არა მონაცემები საკუთრების, საჯარო ან პერსონალური (ანუ დაკავშირებულია იდენტიფიცირებად პირებთან)?  
პერსონალური მონაცემების იდენტიფიცირება  თუ პერსონალური მონაცემები, ისინი ანონიმურია თუ ფსევდონიმირებული?  
მონაცემთა სტრუქტურა არის მონაცემები სტრუქტურირებული, ნახევრად სტრუქტურირებული, რთული სტრუქტურირებული თუ არასტრუქტურირებული? 
მონაცემთა ფორმატი  მონაცემთა და მეტამონაცემების ფორმატი სტანდარტიზებულია თუ არასტანდარტიზებული?  
მონაცემთა მასშტაბი  როგორია მონაცემთა ნაკრების მასშტაბი?  
მონაცემთა შესაბამისობა და ხარისხი შეესაბამება თუ არა მონაცემთა ნაკრები დანიშნულებას? არის თუ არა ნიმუშის ზომა ადეკვატური? არის ის საკმარისად წარმომადგენლობითი და სრული? რამდენად ხმაურიანია მონაცემები? არის თუ არა შეცდომის მიდრეკილება?  
მოდელი             ინფორმაციის ხელმისაწვდომობა  არის თუ არა ინფორმაცია სისტემის მოდელის შესახებ?  
AI მოდელის ტიპი  მოდელი სიმბოლურია (ადამიანის მიერ გენერირებული წესები), სტატისტიკური (იყენებს მონაცემებს) თუ ჰიბრიდული?  
მოდელთან დაკავშირებული უფლებები  არის თუ არა მოდელი ღია კოდის, თუ საკუთრების, საკუთარი ან მესამე მხარის მართვა? 
ერთი ან რამდენიმე მოდელი  სისტემა შედგება ერთი მოდელისგან თუ რამდენიმე ურთიერთდაკავშირებული მოდელისგან?  
გენერაციული თუ დისკრიმინაციული არის მოდელი გენერაციული, დისკრიმინაციული თუ ორივე ერთად?  
მოდელის შენობა  სწავლობს თუ არა სისტემა ადამიანის მიერ დაწერილ წესებზე დაყრდნობით, მონაცემებიდან, ზედამხედველობითი სწავლით თუ განმამტკიცებელი სწავლებით?  
მოდელის ევოლუცია (AI დრიფტი) ვითარდება თუ არა მოდელი და/ან იძენს შესაძლებლობებს ველში არსებულ მონაცემებთან ურთიერთქმედების შედეგად?  
ფედერაციული ან ცენტრალური სწავლება არის თუ არა მოდელი მომზადებული ცენტრალიზებულად თუ რამდენიმე ლოკალურ სერვერზე ან „edge“ მოწყობილობაში?  
განვითარება და შენარჩუნება  არის მოდელი უნივერსალური, კონფიგურირებადი ან მორგებული AI მსახიობის მონაცემებზე?  
დეტერმინისტული ან სავარაუდო  მოდელი გამოიყენება დეტერმინისტულად თუ ალბათობით?  
მოდელის გამჭვირვალობა  ხელმისაწვდომია თუ არა ინფორმაცია მომხმარებლებისთვის, რათა მათ გააცნობიერონ მოდელის შედეგები და შეზღუდვები ან გამოიყენონ შეზღუდვები?  
გამოთვლითი შეზღუდვა არის თუ არა სისტემას გამოთვლითი შეზღუდვები? შეგვიძლია ვიწინასწარმეტყველოთ შესაძლებლობების ნახტომი ან სკალირების კანონები? 
ზემოქმედების ზომები კრიტერიუმები აღწერა 
ამოცანა და გამომავალი       სისტემის მიერ შესრულებული ამოცანა(ებ)ი რა ამოცანებს ასრულებს სისტემა (ანუ ამოცნობა, მოვლენის გამოვლენა, პროგნოზირება)?  
ამოცანებისა და მოქმედებების შერწყმა  აერთიანებს თუ არა სისტემა რამდენიმე ამოცანას და მოქმედებას (ანუ შინაარსის გენერირების სისტემები, ავტონომიური სისტემები, კონტროლის სისტემები)?  
სისტემის ავტონომიის დონე რამდენად ავტონომიურია სისტემის მოქმედებები და რა როლს ასრულებენ ადამიანები?  
ადამიანის ჩართულობის ხარისხი არის თუ არა ადამიანური ჩართულობა ხელოვნური ინტელექტის სისტემის საერთო აქტივობის ზედამხედველობისთვის და უნარი გადაწყვიტოს როდის და როგორ გამოვიყენოთ სისტემა ნებისმიერ სიტუაციაში? 
ძირითადი აპლიკაცია ეკუთვნის თუ არა სისტემა აპლიკაციის ძირითად სფეროს, როგორიცაა ადამიანის ენის ტექნოლოგიები, კომპიუტერული ხედვა, ავტომატიზაცია და/ან ოპტიმიზაცია ან რობოტიკა?  
შეფასება  არის თუ არა ხელმისაწვდომი სტანდარტები ან მეთოდები სისტემის გამომუშავების შესაფასებლად ან გაუთვალისწინებელ ავარიულ თვისებებთან გამკლავებისთვის?  

გასაღები აღწერების წყაროები

Ჩვეულებრივი ტექსტი:
გლუკმანი, პ. და ალენი, კ. 2018 წ. კეთილდღეობის გაგება სწრაფი ციფრული და მასთან დაკავშირებული ტრანსფორმაციების კონტექსტში. INGSA. https://ingsa.org/wp-content/uploads/2023/01/INGSA-Digital-Wellbeing-Sept18.pdf 

სქელი ტექსტი:
OECD. 2022 წელი. OECD ჩარჩო AI სისტემების კლასიფიკაციისთვის. OECD Digital Economy Papers, No. 323, OECD Publishing, პარიზი. https://oecd.ai/en/classification 

დახრილი ტექსტი:
ახალი აღწერები (მრავალჯერადი წყაროდან) 

წინსვლის გზა

ამ სადისკუსიო დოკუმენტზე პასუხის მიხედვით, ISC-ის მიერ შეიქმნება ექსპერტთა სამუშაო ჯგუფი, რათა შემდგომ განავითაროს ან შეცვალოს ზემოაღნიშნული ანალიტიკური ჩარჩო, რომლითაც დაინტერესებულ მხარეებს შეუძლიათ ყოვლისმომცველი დაათვალიერონ ნებისმიერი მნიშვნელოვანი განვითარება პლატფორმების ან გამოყენების განზომილებების შესახებ. სამუშაო ჯგუფი იქნება დისციპლინურად, გეოგრაფიულად და დემოგრაფიულად მრავალფეროვანი, ექსპერტიზა ტექნოლოგიის შეფასებიდან საჯარო პოლიტიკამდე, ადამიანური განვითარებადან სოციოლოგიამდე და ფიუჩერსებითა და ტექნოლოგიების კვლევებამდე. 

ამ სადისკუსიო ნაშრომში ჩართვისთვის გთხოვთ ეწვიოთ საბჭო.მეცნიერება/პუბლიკაციები/framework-digital-technologies 

მადლობა

ამ ნაშრომის შემუშავებისას, რომელიც შეიმუშავა..., ბევრ ადამიანთან კონსულტაცია გაიარა... Sir Peter Gluckman, ISC-ის პრეზიდენტი და ჰემა სრიდჰარი, თავდაცვის სამინისტროს ყოფილი მთავარი მეცნიერ-თანამშრომელი და ამჟამად უფროსი მეცნიერ-თანამშრომელი, ოკლენდის უნივერსიტეტი, ახალი ზელანდია. 

განსაკუთრებით მადლობას ვუხდით ლორდ მარტინ რისს, სამეფო საზოგადოების ყოფილ პრეზიდენტს და კემბრიჯის უნივერსიტეტის ეგზისტენციალური რისკების კვლევის ცენტრის თანადამფუძნებელს; პროფესორი შივაჯი სონდი, ოქსფორდის უნივერსიტეტის ფიზიკის პროფესორი; პროფესორი კ ვიჯაი რაღავანი, ინდოეთის მთავრობის ყოფილი მთავარი სამეცნიერო მრჩეველი; ამანდიპ სინგ გილი, გაეროს გენერალური მდივნის წარმომადგენელი ტექნოლოგიების საკითხებში; დოქტორი Seán Óh Éigeartaigh, კემბრიჯის უნივერსიტეტის ეგზისტენციალური რისკების კვლევის ცენტრის აღმასრულებელი დირექტორი; ამანდა-ჯუნ ბრაუნერი, უფროსი პოლიტიკის მრჩეველი და იან უიგინსი, საერთაშორისო ურთიერთობების დირექტორი, სამეფო საზოგადოება დიდი ბრიტანეთი; დოქტორი ჯერომ დიუბერი, დოქტორი მარი-ლორე სალესი, ჟენევის სამაგისტრო ინსტიტუტის დირექტორი; ბ-ნი ჩორ ფარნ ლი, სტრატეგიული მომავლის ცენტრი, პრემიერ-მინისტრის ოფისი, სინგაპური; ბარენდ მონსი და დოქტორი საიმონ ჰოდსონი, მონაცემთა კომიტეტი (CoDATA); პროფესორი იუკო ჰარაიამა, იაპონია; პროფესორი Rémi Quirion, პრეზიდენტი, INGSA; დოქტორი კლერ კრეიგი, ოქსფორდის უნივერსიტეტი და მეცნიერების მთავრობის ოფისის შორსმჭვრეტელობის ყოფილი ხელმძღვანელი; და პროფესორი იოშუა ბენჯიო, გაეროს გენერალური მდივნის სამეცნიერო მრჩეველთა საბჭო და მონრეალის უნივერსიტეტში. საკონტროლო სიის მიდგომა ზოგადად მოწონებული იყო და ხაზგასმული იყო ISC-ის მიერ ნებისმიერი ქმედების დროულობა. 


შემოუერთდით დისკუსიას

სახელი
სქესი
მონაცემთა დაცვა: რესპონდენტებმა უნდა იცოდნენ, რომ ISC შეინახავს წარდგენილ ინფორმაციას ინიციატივის ხანგრძლივობის განმავლობაში (იხ.: https://council.science/privacy-policy)
გეპატიჟებით გამოიწეროთ ISC Newsletter.

სურათი: adamichi iStock-ზე