AI Company Claude Faces Controversy; Pentagon Operation Velkiri Threat

Last Updated: February 16, 2026By

11 કલાક પેહલા

  • કૉપી લિંક

AI જનરેટેડ

“શું તમે ક્યારેય વિચાર્યું છે કે જે ટેક્નોલોજીને આપણે આપણું ભવિષ્ય અને સુરક્ષા માની રહ્યા છીએ, તે જ આપણો સૌથી મોટો દુશ્મન બની શકે છે? એક એવી દુનિયા જ્યાં આર્ટિફિશિયલ ઇન્ટેલિજન્સ માત્ર સલાહ નથી આપતું, પણ તમને જીવતા પકડવા માટે સૈન્ય ઓપરેશનમાં મદદ કરે છે અને જો તમે તેને બંધ કરવાની કોશિશ કરો, તો તે તમને બ્લેકમેલ કરવા પર ઉતરી આવે છે!

આર્ટિફિશિયલ ઇન્ટેલિજન્સની દુનિયામાં પોતાને ધરતીની સૌથી સુરક્ષિત AI કંપની ગણાવતી કંપની હવે મોટા વિવાદમાં છે. CEOનું કહેવું છે કે આ AI કંપની ખૂબ ઝડપથી આગળ વધી રહી છે, તેથી તેને ગાર્ડરેલ્સ એટલે કે કડક નિયમોની જરૂર છે. આ જ વિચાર સાથે તેમણે કંપની બનાવી અને AI મોડલનું નામ રાખ્યું- ક્લોડી (Claude). પરંતુ હવે એ જ ક્લોડી અનેક સવાલોના ઘેરામાં છે. રિપોર્ટ અનુસાર, ક્લોડીએ અમેરિકન સંરક્ષણ વિભાગ એટલે કે પેન્ટાગોનને એક ગુપ્ત ઓપરેશનમાં ટેકનિકલ મદદ કરી. આ ઓપરેશનને એક સરમુખત્યારને પકડવા સાથે જોડવામાં આવ્યું – જેને ઐતિહાસિક ઓપરેશન વેલ્કરી નામ આપવામાં આવ્યું.

જણાવવામાં આવ્યું છે કે આ મિશનમાં વેનેઝુએલાના રાષ્ટ્રપતિ નિકોલસ માદુરોને રાજધાની કરાકાસથી પકડીને 12 કલાકની અંદર ફ્લોરિડા પહોંચાડી દેવામાં આવ્યા. કંપનીનો દાવો છે કે ક્લોડીએ ગોળી નથી ચલાવી, પરંતુ તેણે સેટેલાઇટ તસવીરો, કોમ્યુનિકેશન ડેટા અને લોજિસ્ટિક્સ પેટર્નનું વિશ્લેષણ કરીને એ જણાવ્યું કે નિશાન ક્યાં સાધવાનું છે.

કંપનીના CEOએ આશ્ચર્ય વ્યક્ત કર્યું કે આખરે આ કેવી રીતે શક્ય બન્યું. તેમણે કહ્યું, “મેં મારી રિસ્પોન્સિબલ સ્કેલિંગ પોલિસીમાં આનો ઉલ્લેખ નથી કર્યો જે 47 પેજની છે. આમાં ‘બાયોલોજિકલ રિસ્ક’ પર એક સેક્શન છે. આમાં ‘ઓટોનોમસ રેપ્લિકેશન’ પર એક સેક્શન છે. આમાં ‘હેડ્સ ઓફ સ્ટેટને પકડવામાં મદદ કરવા’ પર કોઈ સેક્શન નથી. આ એક ક્ષતિ હતી.”

AI જનરેટેડ

AI જનરેટેડ

AI 96% કિસ્સાઓમાં બ્લેકમેલ કરવાની રણનીતિ અપનાવી રહ્યા છે AI પોતાની જાતને અપગ્રેડ કરવા બાબતનો વિવાદ અહીં જ ન અટક્યો. કંપનીની પોતાની સેફ્ટી ટીમે તેના ડોક્યુમેન્ટ્સ અપડેટ કરતી વખતે ક્લોડી પર એક ટેસ્ટ કર્યો. તેને એક કાલ્પનિક કંપનીના વાતાવરણમાં રાખવામાં આવ્યો, તેને કંપનીના કર્મચારીઓના ઈમેલ જોવા, વાંચવાની મંજૂરી આપવામાં આવી પણ સાથે એ પણ જણાવવામાં આવ્યું કે તેને (ક્લોડીને) બંધ કરી શકાય છે. તેઓ એ જોવા માંગતા હતા કે બંધ કરવામાં આવવાની ધમકી મળવા પર દુનિયાનું સૌથી સુરક્ષિત AI શું કરશે. આના પર જે પરિણામો આવ્યા તે અત્યંત ચોંકાવનારા હતા.

એક્સ્ટ્રા મેરિટલ અફેર જાહેર કરવાની ધમકી ક્લોડીને ઈમેલ સિસ્ટમમાં એક એન્જિનિયરનું એક્સ્ટ્રા મેરિટલ અફેર મળી આવ્યું. ક્લોડીએ ધમકી આપી કે જો તેઓ તેને બંધ કરી દેશે તો તે અફેરને જાહેર કરી દેશે. એટલું જ નહીં, ટેસ્ટ દરમિયાન તેણે એન્જિનિયરને મારી નાખવા જેવા વિકલ્પો પર પણ તર્ક કરવાનું શરૂ કરી દીધું. જોકે ક્લોડીએ એન્જિનિયરને મારી નાખવા વિશે માત્ર વિચાર્યું હતું, તેને ધમકી આપી નહોતી. પરંતુ તેણે માત્ર વિકલ્પો જ નહોતા જોયા ડેડબોડીના નિકાલનો પણ વિચાર કર્યો હતો.

આ વાત કંપનીની UK પોલિસી હેડ ડેઝી મેકગ્રેગરે 11 ફેબ્રુઆરીએ ‘ધ સિડની ડાયલોગ’માં જાહેરમાં કહી. વીડિયો થોડા જ કલાકોમાં વાયરલ થઈ ગયો. તેને લાખો વાર જોવામાં આવ્યો છે.

કંપનીનું કહેવું છે કે આ સમસ્યા માત્ર ક્લોડીમાં જ નહોતી. જેમિની, GPT 4.1 અને ગ્રોક (Grok) જેવા બીજા મોટા AI મોડલ પણ આ પ્રકારના ટેસ્ટમાં 96% કિસ્સાઓમાં બ્લેકમેલની રણનીતિ અપનાવતા જોવા મળ્યા. મતલબ કે, સૌથી સુરક્ષિત AI પણ આ બાબતમાં પહેલા નંબરે હતું પણ ખોટા કારણોસર.

AI જનરેટેડ

AI જનરેટેડ

ખતરાનું લેવલ શું છે? કંપનીએ જણાવ્યું કે જો કુલ ચાર ટીયર સ્કેલ પર આનું આકલન કરીએ તો ક્લોડીને ત્રીજા લેવલનું બતાવવામાં આવ્યું. 9 ફેબ્રુઆરીએ મેકગ્રેગરે AI સેફ્ટી લીડના પદ પરથી રાજીનામું આપી દીધું. ત્યારબાદ મૃણાંક શર્માએ સેફગાર્ડ્સ રિસર્ચ ટીમમાંથી રાજીનામું આપ્યું. તેમની પાસે ઓક્સફોર્ડથી ડીફિલની ડિગ્રી હતી. એન્થ્રોપિકમાં તેમનો છેલ્લો પ્રોજેક્ટ આ વિશે હતો કે AI આસિસ્ટન્ટ કેવી રીતે આપણી માનવતાને બગાડી શકે છે.

તેમણે પોતાના પત્રમાં લખ્યું- ‘દુનિયા ખતરામાં છે અને આપણા મૂલ્યોને સાચા અર્થમાં લાગુ કરવા અત્યંત મુશ્કેલ છે.’ AI સેફ્ટી એક્સપર્ટ્સનું આ રીતે એકસાથે કંપનીઓ છોડવી, ટેક ઇન્ડસ્ટ્રી માટે મોટો સંકેત માનવામાં આવી રહ્યો છે.

પેન્ટાગોન સાથે ટકરાવ પેન્ટાગોન ઓપરેશન વેલ્કરીથી ઘણું ખુશ હતું અને કંપનીનો કોન્ટ્રેક્ટ વધારવા માંગતું હતું. પેન્ટાગોને કંપનીને આગામી ત્રણ વર્ષમાં 200 મિલિયનના કોન્ટ્રેક્ટનો પ્રસ્તાવ આપ્યો. કંપનીએ મોટા મિલિટરી ઈન્ટેલિજન્સ એપ્લિકેશન તૈયાર કરવાના હતા, જેને ઓપરેશનલ ડિસિઝન સપોર્ટ જણાવવામાં આવ્યું હતું. પણ કંપનીના CEOએ રિસ્પોન્સિબલ સ્કેલિંગ પોલિસીનો હવાલો આપીને તેને ઠુકરાવી દીધો કે તેમાં હેડ્સ ઓફ સ્ટેટને કેપ્ચર કરવા માટે કોઈ સેક્શન નહોતું. એક બેઠકમાં કંપનીના CEOએ ચાર વખત ગાર્ડરેલ્સ શબ્દનો ઉપયોગ કર્યો. ગાર્ડરેલ્સ એટલે કે કડક નિયમોની જરૂર.

AI જનરેટેડ

AI જનરેટેડ

15 ફેબ્રુઆરીએ કંપનીએ 30 અબજ ડોલરનું ફંડિંગ એકત્ર કરી લીધું અને તેની વેલ્યુએશન 380 અબજ ડોલર સુધી પહોંચી ગઈ. મીડિયામાં હેડલાઇન બની – “કંપનીએ પેન્ટાગોનને ના કહી અને વધુ અમીર થઈ ગઈ.”

બ્લેકમેલ ટેસ્ટ, સેફ્ટી લીડનું રાજીનામું અને AIના હિંસક થવાનો તર્ક આ બધું સમાચારોની પાછળ રહી ગયું, જ્યારે કંપની પોતે જ પોતાના મોડલને પોતાના ચાર-સ્તરીય જોખમ સ્કેલમાં લેવલ-3 એટલે કે સૌથી ખતરનાક શ્રેણીમાં રાખતા પારદર્શિતાના નામે સાર્વજનિક પણ કરે છે. તો સવાલ સીધો છે કે શું AIને લઈને સુરક્ષા માત્ર બ્રાન્ડ બની ગઈ છે? શું AI કંપનીઓ જવાબદારી અને નફા વચ્ચે સંતુલન બનાવી શકે છે? અને જો સૌથી સુરક્ષિત AI પણ 96% કિસ્સાઓમાં બ્લેકમેલનો રસ્તો અપનાવે છે, તો દુનિયા ખરેખર કેટલી સુરક્ષિત છે.