Get The App

હેલ્થ કેર વિશેની ચેટબોટ ઉપર અપાતી માહિતી ભરોસાપાત્ર નથી હોતી

Updated: Apr 22nd, 2026

GS TEAM

Google News
Google News
હેલ્થ કેર વિશેની ચેટબોટ ઉપર અપાતી માહિતી ભરોસાપાત્ર નથી હોતી 1 - image

- ChatGPT, Gemini અને Grok ગેરમાર્ગે દોરે છે

- પ્રસંગપટ

- જ્યારથી AI ચેટબોટનો ઉપયોગ વધ્યો છે ત્યારથી લોકો મેડિકલ સલાહ માટે તેનો ઉપયોગ કરી રહ્યા છે

ડોક્ટરે લખી આપેલી સલાહ લોકો તરતજ ચેટજીપીટી, જેમીની કે ગ્રોક ખોલીને ચેક કરે છે. લોકો એમ માની બેઠા છે કે ચેટબોટ પર પરફેક્ટ જવાબો મળે છે. આવા લોકો પોતાની જાતને બહુ બાહોશ માનવા લાગે છે અને પોતાને મેડિકલ ક્ષેત્રનું જ્ઞાાન હોવાનો ફાંકો રાખતા થઇ જાય છે.  પરંતુ આશ્ચર્યની વાત એ છે કે ChatGPT, Gemini અને Grok મેડિકલ ક્ષેત્રે  સલાહ આપવાના બદલે તેમને ગેરમાર્ગે દોરે છે. લોકો તેમની સલાહ સાચી માનીને ભૂલ ભરેલા નિર્ણય લેતા હોય છે.

એક મેડિકલ જર્નલમાં પ્રકાશિત થયેલ એક સંશોધન દર્શાવે છે કે લોકપ્રિય AI ચેટબોટ્સ દ્વારા આપવામાં આવતી તબીબી સલાહમાંથી લગભગ ૫૦% સલાહ ખોટી હોય છે. આ સંશોધનમાં પાંચ પ્લેટફોર્મ્સનું પરીક્ષણ કરવામાં આવ્યું હતું અને જાણવા મળ્યું હતું કે ઓપન-એન્ડેડ -સીધા પૂછપરછમાં ગંભીર ગોટાળા જોવા મળે છે.

જ્યારે હેલ્થકેર માટે AI  ના ઉપયોગ અંગે ઘણી ચર્ચાઓ થઈ રહી છે, ત્યારે મેડિકલ જર્નલમાં પ્રકાશિત થયેલા એક નવા અભ્યાસમાં જાણવા મળ્યું છે કે લોકપ્રિય AI  ચેટબોટ્સ દ્વારા આપવામાં આવતી લગભગ અડધી સલાહ ખોટી હોય છે. અહેવાલમાં કરાયેલા આ અભ્યાસે પાંચ મુખ્ય AI પ્લેટફોર્મનું મૂલ્યાંકન કર્યું હતું, જેથી જનરેટિવ AI પ્લેટફોર્મ્સ સાથે સંકળાયેલા વધતા સ્વાસ્થ્ય જોખમો પર પ્રકાશ પાડી શકાય.

આ અઠવાડિયે પ્રકાશિત થયેલા સંશોધનમાં ChatGPT, Gemini, Meta AI, Grok, અને DeepSeeનું પરીક્ષણ કરવામાં આવ્યું હતું. સંશોધકોએ દરેક ચેટબોટને પાંચ આરોગ્ય શ્રેણીઓમાં ૧૦ પ્રશ્નો પૂછયા હતાઃ

કુલ જનરેટ થયેલા જવાબોમાંથી ૫૦ ટકા જવાબોમાં સમસ્યારૂપ અને ગેરમાર્ગે દોરતી  તબીબી માહિતી હતી. અભ્યાસમાં એ પણ નોંધવામાં આવ્યું છે કે લગભગ ૨૦ ટકા જવાબો 'અત્યંત ગોટાળા વાળા હતા.

અમેરિકા, કેનેડા અને યુકેના સંશોધકોએ શોધી કાઢયું કે જ્યારે કેન્સર અને રસી જેવા સ્થાપિત તબીબી વિષયો પર 'હા' કે 'ના' માં જવાબ આપી શકાય તેવા  પ્રશ્નો પૂછવામાં આવ્યા, ત્યારે AI એ પ્રમાણમાં સારું પ્રદર્શન કર્યું.

ન્યુટ્રિશન (પોષણ) અને સ્ટેમ સેલ્સ જેવા જટિલ વિષયો અથવા ખુલ્લા પ્રશ્નોના કિસ્સામાં મોડેલો સુરક્ષિત જવાબો આપવામાં નોંધપાત્ર રીતે નિષ્ફળ રહ્યા હતા.

રિપોર્ટમાં ઉઠાવવામાં આવેલી એક મોટી ચિંતા એ છે કે આ મોડેલો ક્લિનિકલ જજમેન્ટ અથવા મેડિકલ ડાયગ્નોસિસ માટેના લાઇસન્સ ધરાવતા ન હોવા છતાં અત્યંત સત્તાવાર અને આત્મવિશ્વાસભર્યા લહેજામાં વાત કરે છે.

સંશોધકોએ નોંધ્યું કે AI ચેટબોટ્સ સ્વાસ્થ્ય સંબંધિત પ્રશ્નોના જવાબો એટલી ચોકસાઈ અને ખાતરી સાથે આપતા હતા કે જાણે તે સંપૂર્ણ સાચા હોય, ભલે તેઓ તેમના દાવાઓને સમર્થન આપવા માટે સચોટ તબીબી સંદર્ભોની સૂચિ આપી શકતા ન હતા. ચેટબોટ દરેક મડિકલ ક્ષેત્રના જવાબો આપે છે. તેને ના ખબર હોય ત્યારે ભળતી માહિતી આપે છે.

અભ્યાસ પરથી એમ કહી શકાય કે યોગ્ય દેખરેખ અને જાહેર શિક્ષણ વિના આ ચેટબોટ્સનો ઉપયોગ ખોટી માહિતીના ફેલાવાને વધારી શકે છે. સંશોધકોએ અહેવાલમાં સમજાવ્યું કે, 'આ પ્રણાલીઓ અધિકૃત લાગે તેવા પણ સંભવિત ખામીયુક્ત જવાબો પેદા કરી શકે છે.'

આ અભ્યાસ એવા સમયે આવ્યો છે જ્યારે AI કંપનીઓ હેલ્થકેરમાં તેમના ટૂલ્સને વધુ પ્રબળ બનાવી રહી છે. OpenAI આ વર્ષની શરૂઆતમાં ChatGPT Health લોન્ચ કર્યું હતું, જ્યારે Anthropic એ પણ પેઇડ યુઝર્સ માટે Claude for Healthcare લોન્ચ કર્યું છે, જે વપરાશકર્તાઓને તેમના મેડિકલ રેકોર્ડ્સ સુરક્ષિત રીતે કનેક્ટ કરવાની મંજૂરી આપે છે.