ChatGPT Controversy: OpenAIની મોનિટરિંગ સિસ્ટમે એક ચિંતાજનક ચેટને ફ્લેગ કરી હતી, પરંતુ અધિકારીઓ દ્વારા એ વિશે કોઈને એલર્ટ મોકલવામાં નહોતા આવ્યાં. ફેબ્રુઆરીમાં બ્રિટિશ કોલમ્બિયામાં એક માસ કિલિંગ થયું હતું. આ શૂટિંગ જેસ વેન રૂટસેલર દ્વારા કરવામાં આવ્યું હતું અને અટેક પહેલાં તેણે ChatGPT સાથે ગન આધારિત હિંસા વિશે વાત કરી હતી. જોકે કંપનીઓને હિંસા વિશે મળતી વોર્નિંગ સાઇન વિશે તેઓ કેવી રીતે કામ કરે છે એને લઈને ઘણાં સવાલો ઊભા થઈ રહ્યાં છે.
ઓટોમેટેડ સિસ્ટમે ચેટને કરી હતી ફ્લેગ
ઇન્ટરનલ એકાઉન્ટ મુજબ OpenAIની ઓટોમેટેડ રિવ્યુ સિસ્ટમે ચિંતાજનક વાતચીત શોધીને એને ફ્લેગ કરી હતી. આ એલર્ટમાં હિંસા થવાનો ઇરાદો દેખાઈ રહ્યો હોવાનું કહેવામાં આવ્યું હતું. ફ્લેગ કરેલી વાતચીતમાં માસ કિલિંગનું પ્લાનિંગ અને એ માટેની તૈયારી કેવી રીતે કરવી એ વિશેની વાતચીત કરવામાં આવી હતી. આ એલર્ટ મળી હોવા છતાં OpenAI કંપનીએ એ વિશે પોલીસ કે કોઈ પણ સત્તાધિકારીઓને જાણ નહોતી કરી.
એક્સપર્ટ આ વિશે દલીલ કરે છે કે આ કંપની દ્વારા જે લાલચીવાડી કરવામાં આવી હતી એ ખૂબ જ જોખમી છે. સિસ્ટમે ખૂબ જ હાઇ રિસ્ક વાળી વાતચીતની જાણ કરી હતી, પરંતુ એ વિશે કોઈ પગલું ન લેવાતા એક્સપર્ટ દ્વારા કંપની પર બડાપો કાઢવામાં આવી રહ્યો છે. તેઓ માને છે કે AI કંપનીઓએ તાત્કાલિક રૂપે જોખમ હોય એને હેન્ડલ કરવા માટે સ્પષ્ટ પ્રોટોકોલ સ્થાપિત કરવા જોઈએ.
પ્રાઇવસી વર્સસ જાહેર સુરક્ષા
આ ઘટના એક નૈતિક દલીલને સામે લાવીને મૂકી દીધી છે કે યુઝર્સની પ્રાઇવસી જાળવી રાખીને જાહેર સુરક્ષાને પણ ધ્યાનમાં કેવી રીતે રાખી શકાય. આ બે વચ્ચે સંતુલન કેવી રીતે જાળવવું એ લઈને ચર્ચા શરૂ થઈ છે. કાયદાના જાણકારના કહ્યા અનુસાર અત્યારના જે પણ નિયમો છે એ અનુસાર એવી કોઈ જોગવાઈ નથી જેમાં AI કંપનીઓએ આ પ્રકારની ઘટનાઓની જાણ પોલીસને કરવી પડે. આથી જીવન-મરણની પરિસ્થિતિઓ હોય ત્યારે પણ કંપનીએ કોઈ નિર્ણય લેવો પડે એ માટે તેઓ બંધાયેલી નથી.
પ્રાઇવસીને મહત્ત્વ આપનાર લોકોનું કહેવું છે કે વાતચીત પર અતિશય દેખરેખ રાખવી પ્રાઇવસીનું ઉલ્લંઘન છે અને યુઝર્સની સ્વતંત્રતાઓને ખતમ કરી શકે છે. જોકે સુરક્ષાને મહત્ત્વ આપનાર કહે છે કે જ્યારે વાતચીત હિંસાની જઈ રહી હોય એ સમયે કંપનીએ જરૂરી પગલાં લેવા જોઈએ અને સરકારને જાણ કરવી જોઈએ.
પારદર્શિતાની થઈ રહી છે માંગ
આ વાત બહાર આવતાં હવે AI પ્લેટફોર્મ્સ પર વધુ દેખરેખની માંગ ઊભી થઈ રહી છે. એક્સપર્ટ દ્વારા દલીલ કરવામાં આવી રહી છે કે માત્ર ઓટોમેટેડ સિસ્ટમ પૂરતી નથી. આ પ્રકારની હિંસા માટે જ્યારે એલર્ટ કરવામાં આવે ત્યારે એ ચેટને મનુષ્ય દ્વારા રિવ્યુ કરવું જરૂરી હોવું જોઈએ. એક એક્સપર્ટનું કહેવું છે કે “AI કંપનીઓ માત્ર એલ્ગોરિધમ પર આધાર રાખીને જોખમ આધારિત વાતચીતને ફ્લેગ કરી શકે અને ત્યાર પછી એના પર કોઈ એક્શન લેવામાં નથી આવતું એ યોગ્ય નથી. કંપનીઓની જવાબદારી હોવી જોઈએ અને તેમની પાસે જવાબ પણ માગવામાં આવે એવી એક ચોક્કસ પ્રોસેસ હોવી જોઈએ.”
આ પ્રકારના જોખમ દરમિયાન કંપનીઓએ અધિકારીઓને જાણ કરવી જોઈએ કે નહીં એ માટે નિયમ બનાવવો જરૂરી છે કે નહીં એ વિશે ઘણાં દેશોની સરકાર હાલમાં વિચાર કરી રહી છે. ઘણી ઇન્ડસ્ટ્રીમાં કેટલાક નિયમો છે કે કંપનીઓ દ્વારા ચોક્કસ પ્રકારના જોખમ માટે પોલીસને જાણ કરવી. તો આ વિશે AI માટે પણ ચોક્કસ પ્રોસેસ બનાવવામાં આવે એવી માગ કરવામાં આવી રહી છે.
આ પણ વાંચો: હવે WhatsApp મેસેજને પણ શેડ્યૂલ કરી શકાશે, આવી રહ્યું છે નવું ફીચર, જાણો કેવી રીતે…
AIના ઉપયોગને લઈને નિયમો જરૂરી
આ કેસ એવા સમયે આવ્યો છે જ્યારે AI ચેટબોટ્સ શિક્ષણ, આરોગ્ય, ગ્રાહક સેવા અને રોજિંદા જીવનમાં ઝડપથી પગ પેસારો કરી રહી છે. આ ઘટના દર્શાવે છે કે ટેકનોલોજીનો ઉપયોગ હિંસા સાથે જોડવામાં આવે ત્યારે કેટલા જોખમો ઊભા થાય છે. આથી AIના ઉપયોગ માટે નિયમો બનાવવા જરૂરી છે જે ભવિષ્યને એક નવી દિશા આપી શકે છે.


