- ChatGPT, Gemini અને Grok ગેરમાર્ગે દોરે છે
- પ્રસંગપટ
- જ્યારથી AI ચેટબોટનો ઉપયોગ વધ્યો છે ત્યારથી લોકો મેડિકલ સલાહ માટે તેનો ઉપયોગ કરી રહ્યા છે
ડોક્ટરે લખી આપેલી સલાહ લોકો તરતજ ચેટજીપીટી, જેમીની કે ગ્રોક ખોલીને ચેક કરે છે. લોકો એમ માની બેઠા છે કે ચેટબોટ પર પરફેક્ટ જવાબો મળે છે. આવા લોકો પોતાની જાતને બહુ બાહોશ માનવા લાગે છે અને પોતાને મેડિકલ ક્ષેત્રનું જ્ઞાાન હોવાનો ફાંકો રાખતા થઇ જાય છે. પરંતુ આશ્ચર્યની વાત એ છે કે ChatGPT, Gemini અને Grok મેડિકલ ક્ષેત્રે સલાહ આપવાના બદલે તેમને ગેરમાર્ગે દોરે છે. લોકો તેમની સલાહ સાચી માનીને ભૂલ ભરેલા નિર્ણય લેતા હોય છે.
એક મેડિકલ જર્નલમાં પ્રકાશિત થયેલ એક સંશોધન દર્શાવે છે કે લોકપ્રિય AI ચેટબોટ્સ દ્વારા આપવામાં આવતી તબીબી સલાહમાંથી લગભગ ૫૦% સલાહ ખોટી હોય છે. આ સંશોધનમાં પાંચ પ્લેટફોર્મ્સનું પરીક્ષણ કરવામાં આવ્યું હતું અને જાણવા મળ્યું હતું કે ઓપન-એન્ડેડ -સીધા પૂછપરછમાં ગંભીર ગોટાળા જોવા મળે છે.
જ્યારે હેલ્થકેર માટે AI ના ઉપયોગ અંગે ઘણી ચર્ચાઓ થઈ રહી છે, ત્યારે મેડિકલ જર્નલમાં પ્રકાશિત થયેલા એક નવા અભ્યાસમાં જાણવા મળ્યું છે કે લોકપ્રિય AI ચેટબોટ્સ દ્વારા આપવામાં આવતી લગભગ અડધી સલાહ ખોટી હોય છે. અહેવાલમાં કરાયેલા આ અભ્યાસે પાંચ મુખ્ય AI પ્લેટફોર્મનું મૂલ્યાંકન કર્યું હતું, જેથી જનરેટિવ AI પ્લેટફોર્મ્સ સાથે સંકળાયેલા વધતા સ્વાસ્થ્ય જોખમો પર પ્રકાશ પાડી શકાય.
આ અઠવાડિયે પ્રકાશિત થયેલા સંશોધનમાં ChatGPT, Gemini, Meta AI, Grok, અને DeepSeeનું પરીક્ષણ કરવામાં આવ્યું હતું. સંશોધકોએ દરેક ચેટબોટને પાંચ આરોગ્ય શ્રેણીઓમાં ૧૦ પ્રશ્નો પૂછયા હતાઃ
કુલ જનરેટ થયેલા જવાબોમાંથી ૫૦ ટકા જવાબોમાં સમસ્યારૂપ અને ગેરમાર્ગે દોરતી તબીબી માહિતી હતી. અભ્યાસમાં એ પણ નોંધવામાં આવ્યું છે કે લગભગ ૨૦ ટકા જવાબો 'અત્યંત ગોટાળા વાળા હતા.
અમેરિકા, કેનેડા અને યુકેના સંશોધકોએ શોધી કાઢયું કે જ્યારે કેન્સર અને રસી જેવા સ્થાપિત તબીબી વિષયો પર 'હા' કે 'ના' માં જવાબ આપી શકાય તેવા પ્રશ્નો પૂછવામાં આવ્યા, ત્યારે AI એ પ્રમાણમાં સારું પ્રદર્શન કર્યું.
ન્યુટ્રિશન (પોષણ) અને સ્ટેમ સેલ્સ જેવા જટિલ વિષયો અથવા ખુલ્લા પ્રશ્નોના કિસ્સામાં મોડેલો સુરક્ષિત જવાબો આપવામાં નોંધપાત્ર રીતે નિષ્ફળ રહ્યા હતા.
રિપોર્ટમાં ઉઠાવવામાં આવેલી એક મોટી ચિંતા એ છે કે આ મોડેલો ક્લિનિકલ જજમેન્ટ અથવા મેડિકલ ડાયગ્નોસિસ માટેના લાઇસન્સ ધરાવતા ન હોવા છતાં અત્યંત સત્તાવાર અને આત્મવિશ્વાસભર્યા લહેજામાં વાત કરે છે.
સંશોધકોએ નોંધ્યું કે AI ચેટબોટ્સ સ્વાસ્થ્ય સંબંધિત પ્રશ્નોના જવાબો એટલી ચોકસાઈ અને ખાતરી સાથે આપતા હતા કે જાણે તે સંપૂર્ણ સાચા હોય, ભલે તેઓ તેમના દાવાઓને સમર્થન આપવા માટે સચોટ તબીબી સંદર્ભોની સૂચિ આપી શકતા ન હતા. ચેટબોટ દરેક મડિકલ ક્ષેત્રના જવાબો આપે છે. તેને ના ખબર હોય ત્યારે ભળતી માહિતી આપે છે.
અભ્યાસ પરથી એમ કહી શકાય કે યોગ્ય દેખરેખ અને જાહેર શિક્ષણ વિના આ ચેટબોટ્સનો ઉપયોગ ખોટી માહિતીના ફેલાવાને વધારી શકે છે. સંશોધકોએ અહેવાલમાં સમજાવ્યું કે, 'આ પ્રણાલીઓ અધિકૃત લાગે તેવા પણ સંભવિત ખામીયુક્ત જવાબો પેદા કરી શકે છે.'
આ અભ્યાસ એવા સમયે આવ્યો છે જ્યારે AI કંપનીઓ હેલ્થકેરમાં તેમના ટૂલ્સને વધુ પ્રબળ બનાવી રહી છે. OpenAI આ વર્ષની શરૂઆતમાં ChatGPT Health લોન્ચ કર્યું હતું, જ્યારે Anthropic એ પણ પેઇડ યુઝર્સ માટે Claude for Healthcare લોન્ચ કર્યું છે, જે વપરાશકર્તાઓને તેમના મેડિકલ રેકોર્ડ્સ સુરક્ષિત રીતે કનેક્ટ કરવાની મંજૂરી આપે છે.


