ხელოვნურ ინტელექტზე დაფუძნებული ჩატბოტები სამედიცინო თემებზე ხშირად მცდარ ან არასრულ ინფორმაციას იძლევიან – ასეთ დასკვნამდე მივიდნენ მკვლევრები, რომელთა ნაშრომი BMJ Open-ში გამოქვეყნდა. კვლევის მიხედვით, პასუხების თითქმის ნახევარი (დაახლოებით 50%) შეიცავდა ფაქტობრივ უზუსტობებს.
ანალიზის ფარგლებში სპეციალისტებმა შეაფასეს ისეთი პოპულარული სისტემების მუშაობა, როგორიცაა Gemini, DeepSeek, Meta AI, ChatGPT და Grok. თითოეულ მათგანს დაუსვეს კითხვები ონკოლოგიის, ვაქცინაციის, ღეროვანი უჯრედების, კვებისა და ფიზიკური აქტივობის შესახებ.
მიღებული პასუხები შეფასდა ექიმებისა და მეცნიერების მიერ აშშ-დან, კანადიდან და დიდი ბრიტანეთიდან. შედეგებმა აჩვენა, რომ:
- პასუხების 49.6% შეიცავდა შეცდომებს
- დაახლოებით 30% ნაწილობრივ არაზუსტი იყო
- 19% კი მნიშვნელოვან ფაქტობრივ შეცდომებს მოიცავდა
მოდელებს შორის განსხვავება შედარებით მცირე აღმოჩნდა, თუმცა ყველაზე სუსტი შედეგები Grok-მა აჩვენა – მასში ყველაზე მეტი სერიოზული შეცდომა დაფიქსირდა.

საინტერესოა, რომ ჩატბოტები შედარებით უკეთ პასუხობდნენ ვაქცინაციასა და ონკოლოგიასთან დაკავშირებულ კითხვებს, ხოლო ყველაზე მეტი სირთულე კვების თემებზე ჰქონდათ.
კვლევამ ასევე გამოავლინა სხვა მნიშვნელოვანი პრობლემები:
- ჩატბოტები პასუხებს ხშირად დიდი თავდაჯერებით აყალიბებდნენ
- 250 შემთხვევიდან მხოლოდ ორჯერ თქვეს პასუხის გაცემაზე უარი
- წყაროების მითითება ხშირ შემთხვევაში არაზუსტი ან საერთოდ გამოგონილი იყო
- გარდა ამისა, ტექსტები საკმაოდ რთული აღმოჩნდა – მათი სირთულე უნივერსიტეტის მეორე კურსის დონეს შეესაბამებოდა, რაც ფართო აუდიტორიისთვის ინფორმაციის აღქმას ართულებს.
მკვლევრები ყველას აფრთხილებენ, რომ ასეთი სისტემების გამოყენება ჯანმრთელობის სფეროში სიფრთხილეს მოითხოვს. მათი აზრით, სათანადო კონტროლისა და განათლების გარეშე, ჩატბოტებმა შესაძლოა დეზინფორმაციის გავრცელება უფრო გააძლიერონ, განსაკუთრებით ისეთ თემებზე, სადაც ისედაც მაღალია მცდარი ინფორმაციის რისკი.