Thursday, February 22, 2018

დასახელდა სამი ძირითადი საშიშროება, რომელიც ხელოვნურ ინტელექტს მოაქვს

ჭურვების დრონებად გადაქცევა, ყალბი ვიდეოები, რომლებიც საზოგადოების ცნობიერების მანიპულაციას ახდენს და მანქანა, რომელსაც კომპიუტერის ავტომატიზებული გატეხა შეუძლია - ექსპერტების აზრით, ეს არის სამი ძირითადი საშიშროება, რომელიც ხელოვნური ინტელექტისგან მოდის. 
"ხელოვნური ინტელექტს მავნებლობის შესახებ" ანგარიშში, ექსპერტები აცხადებენ, რომ რობოტები შესაძლოა "განდევნილმა" ქვეყნებმა, დამნაშავეებმა და ტერორისტებმა გამოიყენონ. 
ექსპერტები სახელმწიფოებისთვის რეკომენდაციებს აქვეყნებენ. მათი თქმით, პოლიტიკოსებმა ინჟინრებმა შეთანხმებით უნდა გააანალიზონ, როგორი იქნება ხელოვნური ინტელექტის მიერ მიყენებული ზარალი და როგორ ავიცილოთ ის თავიდან.  
ანგარიშის ავტორების თქმით, ყველზე საშიშია ხელოვნურ ინტელექტისადმი ახალი მეთოდები, როდესაც რობოტული ტექნიკა ზეადამიანურ ინტელექტუალურ შესაძლებლობამდე მიდის, მას კი ამავდროულად არ ჰყავს მისაბაძი მაგალითი ან ხელმძღვანელი ადამიანურ დონეზე. 
კემბრიჯის უნივერსიტეტის ხელოვნური ინტელექტის ცენტრის სპეციალისტმა შახარ ავინმა ანგარიშის შესახებ დეტალურად ილაპარაკა. "ისეთი პროგრამას, როგორც AlphaGo, რომელიც კომპანია Google DeepMind-მა დაამზადა, შუძლია ადამიანს თამაშში მოუგოს. AlphaGo-ს გამოყენებით ჰაკერებს შეუძლიათ კომპიუტერში შაბლონების პოვნა და სუსტი კოდების გატეხა", - აცხადებს სპეციალისტი. 
მისივე თქმით, ვინმე ცალკეულ ბოროტმოქმედს შეუძლია იყიდოს დრონი, ჩაწეროს მასში სახის ამომცნობი პროგრამა და მისი დახმარებით თავს დაესხას ერთ კონკრეტულ ადამიანს. გარდა ამისა, ავინი აცხადებს, რომ ბოტები ავტომატიზებულნი არიან ყალბი ვიდეოების დამზადებაში და ამას პოლიტიკური მანიპუაციისთვის იყენებენ. ასევე ჰაკერებს ხმის სინთეზით შეუძლიათ საკუთარი თავი, სხვა ადამიანად გაასაღონ. 
imedinews.ge

https://www.facebook.com/www.Hedu.Ge/

No comments:

Post a Comment