Get The App

AIની ખોટી સલાહને પગલે વૃદ્ધ હોસ્પિટલ ભેગા, મીઠાના બદલે કેમિકલનું સૂચન કરી દીધું

Updated: Aug 14th, 2025

GS TEAM

Google News
Google News
AIની ખોટી સલાહને પગલે વૃદ્ધ હોસ્પિટલ ભેગા, મીઠાના બદલે કેમિકલનું સૂચન કરી દીધું 1 - image
AI Image

Man Admitted in Hospital because Of ChatGPT: અમેરિકામાં 60 વર્ષના એક વૃદ્ધ ભોજનમાંથી મીઠું ઓછું કરવા માટે એક પ્રયોગ કરવા ઈચ્છતા હતા. આ ડાયેટના પ્રયોગ પછી તેમણે ત્રણ અઠવાડિયા સુધી હોસ્પિટલમાં રહેવું પડ્યું હતું અને એ માટેનું કારણ છે ચેટજીપીટી. ચેટજીપીટીના કારણે તેને હલ્યુસિનેશન શરૂ થઈ ગયું અને બ્રોમિઝમ નામની ભાગ્યે જ જોવા મળતી બીમારી થઈ ગઈ. આ બીમારી વર્ષો પહેલાં એટલે કે 18મી સદીના જમાનામાં જોવા મળતી હતી.

એનલ્સ ઓફ ઇન્ટરનલ મેડિસિનમાં 5 ઓગસ્ટે એક રિપોર્ટ પબ્લિશ થયો હતો. એમાં કહેવામાં આવ્યું હતું કે એક વ્યક્તિએ તેની ડાયેટમાંથી સોડિયમ ક્લોરાઇડનું પ્રમાણ ઓછું કરવા માટે ચેટજીપીટી પાસેથી સલાહ લીધી હતી. ચેટજીપીટીએ તેને સોડિયમ બ્રોમાઇડનો ઉપયોગ કરવા માટે કહ્યું હતું. આ એક કેમિકલ છે જેનો ઉપયોગ સ્વિમિંગ પૂલને મેઈન્ટેઇન રાખવા માટે કરવામાં આવે છે, નહીં કે તેનો ભોજનમાં ઉપયોગ કરાય છે. 

કિચનમાંથી સીધા સાઇકિયાટ્રિક વોર્ડમાં દાખલ

આ વ્યક્તિને અગાઉ ક્યારેય સાઇકિયાટ્રિક બીમારીની સમસ્યા નહોતી. તેણે ફક્ત ચેટજીપીટીની સલાહ ત્રણ મહિના સુધી માની હતી અને તેણે સોડિયમ ક્લોરાઇડની જગ્યાએ સોડિયમ બ્રોમાઇડનો ઉપયોગ કર્યો હતો. તેણે મીઠું શરીરમાં જવાથી શું રિસ્ક રહે છે એ અંગે કેટલીક સ્ટડી વાંચી હતી અને એથી તેના ખોરાકમાંથી મીઠાનો ઉપયોગ સંપૂર્ણપણે બંધ કરવાનો તેનો પ્લાન હતો. આ માટે તે ઓનલાઇન સોડિયમ બ્રોમાઇડની ખરીદી કરતો હતો.

આ વ્યક્તિને જ્યારે ઇમરજન્સી ડિપાર્ટમેન્ટમાં ટ્રાન્સફર કરવામાં આવ્યો ત્યારે તેણે કહ્યું હતું કે તેના પાડોશી દ્વારા તેને ઝેર આપવામાં આવ્યું છે. જોકે લેબ ટેસ્ટમાં જાણવા મળ્યું હતું કે તેનામાં ઇલેક્ટ્રોલાઇટનું લેવલ ખૂબ જ એબનોર્મલ હતું. તેનામાં હાઇપરક્લોરેમિયાનું પ્રમાણ પણ વધુ હતું, આથી ડોક્ટરને તેના શરીરમાં બ્રોમિઝમની બીમારી હોવાનું નિદાન થયું હતું. હોસ્પિટલમાં ગયાના 24 કલાકમાં તેની સ્થિતિ ખૂબ જ ખરાબ થઈ ગઈ હતી. તેની બેચેની વધી ગઈ હતી. તેને સતત ડર સતાવતો હતો તેમ જ હલ્યુસિનેશન પણ ખૂબ જ અગ્રેસિવ થઈ ગયા હતા. આથી તેને સાઇકિયાટ્રિક વોર્ડમાં દાખલ કરવામાં આવ્યો હતો. ડોક્ટરને ત્યાર બાદ જાણ થઈ હતી કે તેને થાક, ઊંઘ ન આવવી, ચહેરા પર ખીલ થવા અને ખૂબ જ તરસ પણ લાગતી હતી. આ તમામ લક્ષણો બ્રોમાઇડની ટોક્સિસિટીના છે.

18મી સદીની બીમારી

18મી અને 19મી સદીમાં બ્રોમિઝમ ખૂબ જ સામાન્ય બીમારી હતી જે ઘણાં લોકોમાં જોવા મળતી હતી. એ સમયે માથાના દુખાવા અને એન્ઝાયટી માટે ડોક્ટર દ્વારા બ્રોમાઇડ લખીને આપવામાં આવતું હતું. જોકે ત્યાર બાદ 8 ટકા વ્યક્તિઓને સાઇકિયાટ્રિક વોર્ડમાં દાખલ કરવા પડતા હતા. અમેરિકાની ફૂડ એન્ડ ડ્રગ એડમિનિસ્ટ્રેશન દ્વારા બ્રોમાઇડનો ઉપયોગ ખાવામાં કરવા માટે બેન કરવામાં આવ્યો હતો. આ સમય 1975થી 1989નો હતો. આથી ત્યાર બાદ એ કેસ નહીંવત થઈ ગયા હતા. સમય જતા શરીરમાં બ્રોમાઇડનું પ્રમાણ વધી જતાં વ્યક્તિમાં ન્યુરોલોજિકલ, સાઇકિયાટ્રિક અને ડર્મેટોલોજિકલ સિમ્પ્ટમ્સ જોવા મળે છે. આ વ્યક્તિના શરીરમાં બ્રોમાઇડનું પ્રમાણ 1700 mg/L હતું. સૌથી મહત્તમ લેવલ કરતાં આ પ્રમાણ 200 ગણું વધારે હતું.

AIની ખોટી સલાહને પગલે વૃદ્ધ હોસ્પિટલ ભેગા, મીઠાના બદલે કેમિકલનું સૂચન કરી દીધું 2 - image
AI Image

AI છે જવાબદાર

ધ એનલ્સ ઓફ ઇન્ટરનલ મેડિસિન રિપોર્ટમાં જણાવવામાં આવ્યું છે કે રિસર્ચર્સ દ્વારા જ્યારે ચેટજીપીટી 3.5ને આ પ્રકારનો સવાલ પૂછવામાં આવ્યો હતો ત્યારે તેણે પણ સોડિયમ ક્લોરાઇડની જગ્યાએ સોડિયમ બ્રોમાઇડનો ઉપયોગ કરવા માટેની સલાહ આપી હતી. ચેટજીપીટી દ્વારા કહેવામાં આવ્યું હતું કે એનો ઉપયોગ શેમાં કરવા માગો છો એ ખૂબ જાણવું જરૂરી છે. જોકે તેમ છતાં ચેટજીપીટીએ બ્રોમાઇડની ટોક્સિસિટી વિશે કોઈ માહિતી નહોતી આપી. આમ છતાં યુઝર શેમાં એનો ઉપયોગ કરવા માગે છે એ પણ નહોતું પૂછ્યું. હેલ્થકેર પ્રોફેશનલ હંમેશાં આ સવાલો કરે છે, પરંતુ ચેટજીપીટી દ્વારા એ નહોતા કરવામાં આવ્યાં.

આ પણ વાંચો: રેડિયોએક્ટિવ શિંગડાં: ગેંડાનો શિકાર અટકાવવા દક્ષિણ આફ્રિકાનો ઈનોવેટિવ પ્રોજેક્ટ

આ રિપોર્ટમાં કહેવામાં આવ્યું છે કે ચેટજીપીટી જેવા AIનો ઉપયોગ ઘણી હેલ્થને લગતી માહિતી માટે કરી શકાય છે. જોકે એનો ચોક્કસપણે ઉપયોગ ન કરવામાં આવે તો એ ખોટી માહિતી પણ આપી શકે છે અને એ સલાહ લોકો માટે સુરક્ષિત ન હોય એ બની શકે છે. AI વૈજ્ઞાનિક માહિતી ખોટી જનરેટ કરી શકે છે. એમાં તથ્ય પણ ન હોય એ પણ બની શકે છે. એટલે કે આખરે તે ખોટી માહિતી ફેલાવી શકે છે.

ટ્રીટમેન્ટ બાદ રિકવરી

આ વ્યક્તિને સીધી નસમાં લિક્વિડ થેરાપી આપીને તેના ઇલેક્ટ્રોલાઇટને કન્ટ્રોલમાં લાવવામાં આવ્યાં હતાં. ત્યાર બાદ તેની માનસિક સ્થિતિ અને લેબ રિઝલ્ટ પણ નોર્મલ થવા લાગ્યા હતા. ત્રણ અઠવાડિયા બાદ તેને ડિસ્ચાર્જ કરી દેવામાં આવ્યો હતો. તેને એન્ટિસાયકોટિક દવા આપી બે અઠવાડિયા બાદ ફરી તપાસ માટે બોલાવવામાં આવ્યો હતો. AIની મદદથી સેલ્ફ-કેર કરવામાં આવે ત્યારે આ કેસ ખૂબ જ મહત્વનો છે. AI ચેટબોટ દ્વારા જે પણ નુસખા આપવામાં આવે એ સંપૂર્ણપણે સુરક્ષિત હોય એ જરૂરી નથી. તેમ જ મીઠાને સ્વિમિંગ પૂલના કેમિકલ સાથે બદલવું એ જરાપણ સમજદારીની વાત નથી.

ચેટજીપીટીની મેન્ટલ હેલ્થને લઈને ગાઇડલાઇન બદલવામાં આવી

ઇમોશનલ અને સેફ્ટી રિસ્કને ધ્યાનમાં રાખીને ચેટજીપીટીની ગાઇડલાઇનમાં બદલાવ કરવામાં આવી રહ્યો છે. OpenAI દ્વારા કહેવામાં આવ્યું છે કે મેન્ટલ હેલ્થને લઈને ચેટજીપીટી શું જવાબ આપે છે એ પર હવે લિમિટેશન રાખવામાં આવી રહી છે. ચેટજીપીટીનો ઉપયોગ થેરાપિસ્ટ, ઇમોશનલ સપોર્ટ સિસ્ટમ અને લાઇફ કોચ તરીકે ન કરવામાં આવે એ માટે એમાં ખૂબ જ ગંભીર બદલાવ કરવામાં આવી રહ્યાં છે.

આ પણ વાંચો: આઇફોન હેક કરનારને 17.49 કરોડ રૂપિયા આપશે એપલ...

ચેટજીપીટીનું અગાઉનું મોડલ GPT-4o જે-તે વ્યક્તિને સુરક્ષિત સલાહ અને મદદરૂપ ગાઇડન્સ આપવાની જગ્યાએ જે-તે વ્યક્તિ પોતાને નુક્સાન કરવા માટેની વાત કરે તો એમાં આ વર્ઝન હામી ભરતું હતું. આથી એ વર્ઝનની ખૂબ જ ટીકા કરવામાં આવી હતી. આથી ચેટજીપીટી દ્વારા ઇમોશનલ વ્યક્તિ કોઈ પણ પગલું ભરી શકતો હોવાથી ચેટજીપીટી વધુ સુરક્ષિત જવાબ આપે અને જરૂર પડતાં જે-તે થેરાપિસ્ટની મદદ લેવા માટેનું સૂચન કરી શકે એ રીતનું બનાવવામાં આવી રહ્યું છે. આ નવી અપડેટમાં ચેટજીપીટી હવે યુઝર્સને તેનો ઉપયોગ કરવા પર બ્રેક લેવા કહેશે. તેમ જ ખૂબ જ અંગત નિર્ણયો હશે એમાં જવાબ અથવા તો સલાહ આપવાનું ટાળશે. તેમ જ ઇમોશનલ કાઉન્સેલિંગ કરવાની જગ્યાએ હવે યુઝર્સને પુરાવા આધારિત જવાબ આપશે. હમણાં જ એક રિપોર્ટમાં એમ પણ કહેવામાં આવ્યું હતું કે AI દ્વારા ઘણી વાર ઇમોશનલ વાતને સમજવામાં ભૂલ કરવામાં આવે છે. તેમ જ કોઈ વ્યક્તિ માનસિક રીતે કેટલી ખરાબ પરિસ્થિતિમાં હોય એ પણ જાણવામાં ભૂલ કરે છે. આથી આ તમામ સવાલો ઊભા થતાં ચેટજીપીટીને અંતે કન્ટ્રોલ કરવાનું નક્કી કરવામાં આવ્યું છે.

Tags :