ხელოვნური ინტელექტი და რეკრუტინგი - რა უნდა გაითვალისწინოს ბიზნესმა?
ხელოვნური ინტელექტის სამართლებრივი კუთხით გამოყენება თანამედროვე სამყაროში სულ უფრო აქტუალური ხდება. 2025 წელს ალბანეთში ხელოვნური ინტელექტი მინისტრად დანიშნა. ფაქტობრივად, ის არის ვირტუალური მინისტრი, რომელიც ხელოვნური ინტელექტის საშუალებითაა შექმნილი და ყველა საჯარო შესყიდვაზე იქნება პასუხისმგებელი. ხელოვნური ინტელექტის მსგავსი სახით გამოყენება ცხადყოფს, რამდენად აქტუალურია მისი რეგულირების საკითხი. შრომით-სამართლებრივ ურთიერთობებში ხელოვნური ინტელექტის გამოყენების საკითხსა და შესაბამის რისკებზე საუბრობს იურიდიული ფირმა ბი ვი ქონსალთინგის იურისტი მარიამ ბაღდავაძე.
ხელოვნური ინტელექტის დანერგვა ბიზნეს-საქმიანობაში თანამედროვე ინდუსტრიის ერთ-ერთი მონაპოვარია. მიუხედავად რიგი ბენეფიტებისა, მისი თუნდაც შრომით-სამართლებრივ ურთიერთობებში გამოყენების სამართლებრივი რეგულირება საქართველოში ჯერ კიდევ არაა სრულყოფილად მოწესრიგებული.
საქართველოში დღეს-დღეობით აქტიურად გამოიყენება ხელოვნური ინტელექტის საფუძველზე შექმნილი დასაქმების ისეთი პლატფორმები, როგორიცაა: Helio, „LinkedIn“-ის რეკომენდაციური ალგორითმები და საერთაშორისო სტანდარტებზე დაფუძნებული შეფასების პროგრამები. ამგვარი პლატფორმები საშუალებას აძლევს დამსაქმებლებს, სწრაფად შეარჩიონ კანდიდატები, ხოლო თანამშრომლებს – იპოვონ მათ საჭიროებებზე მორგებული ვაკანსიები. თუმცა, სწორედ ამ ეტაპზე ჩნდება რიგი სამართლებრივი გამოწვევები, რომელთა უგულებელყოფამ შესაძლოა გამოიწვიოს დისკრიმინაციული პრაქტიკის დამკვიდრება.
ევროკავშირის სასამართლო პრაქტიკაში უკვე არაერთი შემთხვევა ფიქსირდება, სადაც ხელოვნური ინტელექტის გამოყენებისა და ალგორითმზე დაფუძნებული გადაწყვეტილების შედეგად შრომით ურთიერთობებში დაირღვა თანასწორობის პრინციპი. მაგალითად, გერმანიის ფედერალური შრომითი სასამართლოს (Bundesarbeitsgericht) ერთ-ერთ საქმეში დადგინდა, რომ სამუშაოს კანდიდატთა შეფასების სისტემა, რომელიც ავტომატურად ანიჭებდა დაბალ ქულას ასაკოვან კანდიდატებს, არღვევდა ასაკობრივი დისკრიმინაციის აკრძალვას. ანალოგიურად, ნიდერლანდებში სასამართლომ შეაფასა Deliveroo-ს ალგორითმული სისტემის გამოყენება კურიერების კონტროლისა და შეფასებისას და დაასკვნა, რომ ხელოვნური ინტელექტის გამოყენების პირობებში შრომითი ურთიერთობები უნდა დაექვემდებაროს კლასიკურ შრომით სამართლის სტანდარტებს და არა მხოლოდ ზოგად სამოქალაქო-სამართლებრივ რეგულაციას.
ზემოთ განხილულმა მაგალითებმა ცხადყო, რომ ხელოვნური ინტელექტის გამოყენებას თან ახლავს:
• მიკერძოების მაღალი რისკი – ხელოვნური ინტელექტი გადაწყვეტილების მისაღებად ხშირად იყენებს ბაზაში დაგროვებულ მონაცემებს, როგორც სასწავლ მასალას, სადაც შესაძლოა ბუნებრივად იყოს გამოკვეთილი დისკრიმინაციული ტენდენციები. შედეგად, ახალი გადაწყვეტილებებიც იმეორებს ამ მოცემულობას. მაგალითად, სქესის ნიშნით დისკრიმინაციის შემთხვევა დადგინდა გახმაურებულ Amazon-ის ქეისში შიდა რეკრუტინგისათვის გამოყენებული ალგორითმის მიერ, რომელმაც უპირატესობა წარსულ მონაცემებზე დაყრდნობით მამაკაც კანდიდატებს მიანიჭა.
• გამჭვირვალობის პრობლემა – ხელოვნური ინტელექტის გამოყენებისას იქმნება „შავი ყუთის“ ეფექტი, როდესაც დასაქმებული ან კანდიდატი ვერ იგებს, რა კრიტერიუმებით მიიღო ალგორითმმა კონკრეტული გადაწყვეტილება. სწორედ ამიტომ, ევროკავშირის ზოგიერთ ქვეყანაში დამსაქმებლებს ევალებათ, განმარტონ, თუ როგორ ფუნქციონირებს ავტომატური გადაწყვეტილების სისტემა (GDPR-ის 22-ე მუხლი).
• შრომითი უფლებების დარღვევის რისკი – თუ ალგორითმი ავტომატურად აკონტროლებს თანამშრომელთა მუშაობას (მაგალითად, ე.წ. თრექინგ-სისტემებით ან ავტომატური შეფასებით), ჩნდება შრომითი უფლებების დარღვევის მაღალი რისკი. აღნიშნული საკითხი განხილულ იქნა იტალიაში, სადაც სასამართლომ აკრძალა Uber-ის ალგორითმის გარკვეული ფორმით გამოყენება, ვინაიდან იგი უსამართლოდ აჯარიმებდა მძღოლებს დისტანციური მონიტორინგის ფარგლებში და არღვევდა მათ შრომით უფლებებს.
ამ ეტაპზე საქართველოში ხელოვნური ინტელექტის სამუშაო პროცესში თანამშრომელთა მონიტორინგისათვის გამოყენება შედარებით იშვიათია, თუმცა რეკრუიტინგის პროცესში აშკარად იკვეთება მისი აქტიური მოხმარება. ამდენად, შრომით-სამართლებრივი ურთიერთობების კონტექსტში აუცილებელია:
ამგვარად, ბიზნეს სუბიექტებს ექნებათ საშუალება, ეფექტურად უპასუხოს თანამედროვე ტექნოლოგიური განვითარების გამოწვევებს და მართონ შრომით ურთიერთობებში ხელოვნური ინტელექტის გამოყენებასთან დაკავშირებული რისკები.
სხვა სიახლეები
07.10.2025.12:08
ხელოვნური ინტელექტის სამართლებრივი კუთხით გამოყენება თანამედროვე სამყაროში სულ უფრო აქტუალური ხდება. 2025 წელს ალბანეთში ხელოვნური ინტელექტი მინისტრად დანიშნა. ფაქტობრივად, ის არის ვირტუალური მინისტრი, რომელიც ხელოვნური ინტელექტის საშუალებითაა შექმნილი და ყველა საჯარო შესყიდვაზე იქნება პასუხისმგებელი. ხელოვნური ინტელექტის მსგავსი სახით გამოყენება ცხადყოფს, რამდენად აქტუალურია მისი რეგულირების საკითხი. შრომით-სამართლებრივ ურთიერთობებში ხელოვნური ინტელექტის გამოყენების საკითხსა და შესაბამის რისკებზე საუბრობს იურიდიული ფირმა ბი ვი ქონსალთინგის იურისტი მარიამ ბაღდავაძე.
ხელოვნური ინტელექტის დანერგვა ბიზნეს-საქმიანობაში თანამედროვე ინდუსტრიის ერთ-ერთი მონაპოვარია. მიუხედავად რიგი ბენეფიტებისა, მისი თუნდაც შრომით-სამართლებრივ ურთიერთობებში გამოყენების სამართლებრივი რეგულირება საქართველოში ჯერ კიდევ არაა სრულყოფილად მოწესრიგებული.
საქართველოში დღეს-დღეობით აქტიურად გამოიყენება ხელოვნური ინტელექტის საფუძველზე შექმნილი დასაქმების ისეთი პლატფორმები, როგორიცაა: Helio, „LinkedIn“-ის რეკომენდაციური ალგორითმები და საერთაშორისო სტანდარტებზე დაფუძნებული შეფასების პროგრამები. ამგვარი პლატფორმები საშუალებას აძლევს დამსაქმებლებს, სწრაფად შეარჩიონ კანდიდატები, ხოლო თანამშრომლებს – იპოვონ მათ საჭიროებებზე მორგებული ვაკანსიები. თუმცა, სწორედ ამ ეტაპზე ჩნდება რიგი სამართლებრივი გამოწვევები, რომელთა უგულებელყოფამ შესაძლოა გამოიწვიოს დისკრიმინაციული პრაქტიკის დამკვიდრება.
ევროკავშირის სასამართლო პრაქტიკაში უკვე არაერთი შემთხვევა ფიქსირდება, სადაც ხელოვნური ინტელექტის გამოყენებისა და ალგორითმზე დაფუძნებული გადაწყვეტილების შედეგად შრომით ურთიერთობებში დაირღვა თანასწორობის პრინციპი. მაგალითად, გერმანიის ფედერალური შრომითი სასამართლოს (Bundesarbeitsgericht) ერთ-ერთ საქმეში დადგინდა, რომ სამუშაოს კანდიდატთა შეფასების სისტემა, რომელიც ავტომატურად ანიჭებდა დაბალ ქულას ასაკოვან კანდიდატებს, არღვევდა ასაკობრივი დისკრიმინაციის აკრძალვას. ანალოგიურად, ნიდერლანდებში სასამართლომ შეაფასა Deliveroo-ს ალგორითმული სისტემის გამოყენება კურიერების კონტროლისა და შეფასებისას და დაასკვნა, რომ ხელოვნური ინტელექტის გამოყენების პირობებში შრომითი ურთიერთობები უნდა დაექვემდებაროს კლასიკურ შრომით სამართლის სტანდარტებს და არა მხოლოდ ზოგად სამოქალაქო-სამართლებრივ რეგულაციას.
ზემოთ განხილულმა მაგალითებმა ცხადყო, რომ ხელოვნური ინტელექტის გამოყენებას თან ახლავს:
• მიკერძოების მაღალი რისკი – ხელოვნური ინტელექტი გადაწყვეტილების მისაღებად ხშირად იყენებს ბაზაში დაგროვებულ მონაცემებს, როგორც სასწავლ მასალას, სადაც შესაძლოა ბუნებრივად იყოს გამოკვეთილი დისკრიმინაციული ტენდენციები. შედეგად, ახალი გადაწყვეტილებებიც იმეორებს ამ მოცემულობას. მაგალითად, სქესის ნიშნით დისკრიმინაციის შემთხვევა დადგინდა გახმაურებულ Amazon-ის ქეისში შიდა რეკრუტინგისათვის გამოყენებული ალგორითმის მიერ, რომელმაც უპირატესობა წარსულ მონაცემებზე დაყრდნობით მამაკაც კანდიდატებს მიანიჭა.
• გამჭვირვალობის პრობლემა – ხელოვნური ინტელექტის გამოყენებისას იქმნება „შავი ყუთის“ ეფექტი, როდესაც დასაქმებული ან კანდიდატი ვერ იგებს, რა კრიტერიუმებით მიიღო ალგორითმმა კონკრეტული გადაწყვეტილება. სწორედ ამიტომ, ევროკავშირის ზოგიერთ ქვეყანაში დამსაქმებლებს ევალებათ, განმარტონ, თუ როგორ ფუნქციონირებს ავტომატური გადაწყვეტილების სისტემა (GDPR-ის 22-ე მუხლი).
• შრომითი უფლებების დარღვევის რისკი – თუ ალგორითმი ავტომატურად აკონტროლებს თანამშრომელთა მუშაობას (მაგალითად, ე.წ. თრექინგ-სისტემებით ან ავტომატური შეფასებით), ჩნდება შრომითი უფლებების დარღვევის მაღალი რისკი. აღნიშნული საკითხი განხილულ იქნა იტალიაში, სადაც სასამართლომ აკრძალა Uber-ის ალგორითმის გარკვეული ფორმით გამოყენება, ვინაიდან იგი უსამართლოდ აჯარიმებდა მძღოლებს დისტანციური მონიტორინგის ფარგლებში და არღვევდა მათ შრომით უფლებებს.
ამ ეტაპზე საქართველოში ხელოვნური ინტელექტის სამუშაო პროცესში თანამშრომელთა მონიტორინგისათვის გამოყენება შედარებით იშვიათია, თუმცა რეკრუიტინგის პროცესში აშკარად იკვეთება მისი აქტიური მოხმარება. ამდენად, შრომით-სამართლებრივი ურთიერთობების კონტექსტში აუცილებელია:
ამგვარად, ბიზნეს სუბიექტებს ექნებათ საშუალება, ეფექტურად უპასუხოს თანამედროვე ტექნოლოგიური განვითარების გამოწვევებს და მართონ შრომით ურთიერთობებში ხელოვნური ინტელექტის გამოყენებასთან დაკავშირებული რისკები.