మార్చి 5, 2025 న పెంటగాన్ ఆర్టిఫిషియల్ ఇంటెలిజెన్స్తో వ్యవహరించే యుఎస్ సంస్థ మెట్ల AI ని అప్పగించింది, థండర్ఫోర్జ్ అభివృద్ధి. ఇది ఐరోపాలో మరియు ఇండో-పసిఫిక్ ప్రాంతంలో సైనిక కార్యకలాపాలపై ప్రత్యేక శ్రద్ధతో సైనిక ప్రణాళికను వేగవంతం చేయాల్సిన IA యొక్క వ్యవస్థ.
కార్యాచరణ సందర్భాలలో వేగంగా నిర్ణయాలు తీసుకునే సామర్థ్యాన్ని మెరుగుపరచడానికి పెద్ద భాషా నమూనాలు, అధునాతన అనుకరణలు మరియు ఇంటరాక్టివ్ వార్ అనుకరణల ఆధారంగా యుఎస్ ఆర్మీ సాధనాలను అందించడం ఈ ప్రాజెక్ట్ యొక్క లక్ష్యం. ఈ ప్రాజెక్టును పర్యవేక్షించే ఏజెన్సీ డిఫెన్స్ ఇన్నోవేషన్ యూనిట్, థండర్ఫోర్జ్ను యుద్ధ దృశ్యాలను పరీక్షించగల వ్యవస్థగా అభివర్ణించింది, బెదిరింపులను ating హించడం మరియు ప్రపంచ స్థాయిలో వ్యూహాత్మక వనరుల ఏర్పాటును నిర్ణయించడం.
ఆర్థికంగా, పెంటగాన్ మరియు స్కేల్ AI మధ్య ఒప్పందం ఎంత విలువైనదో మాకు తెలియదు. అయినప్పటికీ, ఆండ్రిల్ మరియు మైక్రోసాఫ్ట్ సహకారం కూడా ఉంటుందని మాకు తెలుసు. రక్షణ రంగంలో ఆండ్రిల్ అత్యంత చురుకైన సంస్థలలో ఒకటి: ఇది దాని రబ్బరు పాలు వ్యవస్థను అందిస్తుంది, ఇది పోరాట కార్యకలాపాలను ఆప్టిమైజ్ చేయడానికి డ్రోన్లు మరియు ఇతర సెన్సార్ల నుండి డేటాను సేకరించి విశ్లేషించే వేదిక. మైక్రోసాఫ్ట్, మరోవైపు, దాని IA మోడళ్లతో దోహదం చేస్తుంది, థండర్ఫోర్జ్లో LLM యొక్క ప్రాసెసింగ్ నైపుణ్యాలను ఏకీకృతం చేస్తుంది.
పసిఫిక్ మహాసముద్రం మరియు హిందూ మహాసముద్రంలో యునైటెడ్ స్టేట్స్ యొక్క సాయుధ దళాల ఏకీకృత ఆదేశాల అధిపతి అడ్మిరల్ సామ్ పాపారో, చైనా కార్యకలాపాలను పర్యవేక్షించడంలో కృత్రిమ మేధస్సు కీలక పాత్ర పోషిస్తుందని, సంభావ్య బెదిరింపులను ప్రమాదకర చర్యల కవరేజీగా ఉపయోగించే సైనిక వ్యాయామాలుగా గుర్తించడంలో కృత్రిమ మేధస్సు కీలక పాత్ర పోషిస్తుందని ఇప్పటికే ఫిబ్రవరి 2025 లో ప్రకటించారు. మిత్రదేశాలతో నిజ సమయంలో సమాచారం మరియు విశ్లేషణలను పంచుకోవడానికి దాని ఆదేశం మిషన్ పార్టనర్ ఎన్విరాన్మెంట్ అని పిలువబడే ఒక వేదికను అభివృద్ధి చేస్తోందని అడ్మిరల్ నొక్కిచెప్పారు.
కానీ వ్యూహాత్మక ప్రణాళిక ఆధునిక యుద్ధాలలో కృత్రిమ మేధస్సు యొక్క ఏకీకరణలో ఒక భాగం మాత్రమే: అవి స్వయంప్రతిపత్త డ్రోన్ల నుండి అధునాతన నిఘా వ్యవస్థల వరకు ఉంటాయి, కంప్యూటర్ అటాక్ సాఫ్ట్వేర్ నుండి మానవ పర్యవేక్షణ లేకుండా లక్ష్యాలను గుర్తించే మరియు ప్రభావితం చేసే ఆయుధాల వరకు. అంతే కాదు. సమకాలీన యుద్ధాలలో AI యొక్క ఉపయోగం మీరు పోరాడే విధానాన్ని ఇప్పటికే మార్చింది. ఉదాహరణకు, రష్యా మరియు ఉక్రెయిన్ మధ్య వివాదంలో, కృత్రిమ మేధస్సు ఉన్న డ్రోన్లను రెండు సైన్యాలు శత్రు స్టేషన్లను గుర్తించడానికి మరియు దాడి చేయడానికి ఉపయోగిస్తాయి. గాజా మరియు లెబనాన్లలో బాంబు దాడులలో లక్ష్యాలను ఎంచుకోవడానికి ఇజ్రాయెల్ AI అల్గారిథమ్లను ఉపయోగించారు.
ఆటోమేటిక్ ఆయుధాల రేసును ఆపే ప్రయత్నంలో, డిసెంబర్ 2, 2024 న, ఐక్యరాజ్యసమితి జనరల్ అసెంబ్లీ ఆమోదించింది రిజల్యూషన్ 79/L.77 ప్రాణాంతక స్వయంప్రతిపత్త ఆయుధ వ్యవస్థలపై, 166 ఓట్లు అనుకూలంగా ఉన్నాయి, మూడు (బెలారస్, రష్యా మరియు ఉత్తర కొరియా) మరియు పదిహేను సంయమనం (చైనా మరియు ఇజ్రాయెల్తో సహా). ఈ పత్రం సైనిక రంగంలో AI ను ఉపయోగించడం వల్ల కలిగే నష్టాలను గుర్తిస్తుంది మరియు అంతర్జాతీయ నియంత్రణపై చర్చను తెరుస్తుంది. ఏది ఏమయినప్పటికీ, 2025 సంవత్సరంలో అనధికారిక సంప్రదింపులలో పాల్గొనడానికి సభ్య దేశాలను ఆహ్వానించడానికి ఇది ఎటువంటి నిషేధాన్ని అందించదు మరియు పరిమితం చేస్తుంది. యునైటెడ్ స్టేట్స్ తీర్మానానికి అనుకూలంగా ఓటు వేసింది, కాని అదే సమయంలో వారు యుద్ధంలో AI యొక్క AI దరఖాస్తుపై తమ పరిశోధనలను ఆపడానికి ఉద్దేశించినది కాదని వారు తెలిపారు. బహుశా మరింత కఠినమైన నియంత్రణకు ప్రతిఘటన దాని పోటీ ప్రయోజనాన్ని కోల్పోతుందనే భయంతో ముడిపడి ఉంటుంది.
దురదృష్టవశాత్తు, ప్రపంచ భద్రతకు అస్థిరపరిచే పరిణామాలతో, AI- ఆధారిత ఆయుధాల జాతిని ప్రోత్సహించే భాగస్వామ్య నియంత్రణ ఫ్రేమ్వర్క్ ప్రమాదాలు లేకపోవడం. ఈ సాంకేతిక పరిజ్ఞానాల ఉపయోగం శక్తిని ఉపయోగించడం కోసం ప్రవేశాన్ని తగ్గిస్తుంది: అవి యంత్రాలతో పోరాడుతుంటే, యుద్ధ ప్రమాదాలు మరింత తరచుగా మారుతాయి, తక్కువ నెత్తుటివి కావు.
గూగుల్ మాజీ సిఇఒ ఎరిక్ ష్మిత్, ఆర్టిఫిషియల్ ఇంటెలిజెన్స్ యొక్క సైనికీకరణకు ప్రధాన మద్దతుదారులలో ఒకరు. ఇటీవలి సంవత్సరాలలో అతను IA ఆధారిత యుద్ధ సాంకేతిక పరిజ్ఞానాల అభివృద్ధికి మిలియన్ డాలర్లను పెట్టుబడి పెట్టాడు మరియు రక్షణ శాఖ యొక్క ప్రాజెక్టులలో సాంకేతిక సంస్థల ప్రత్యక్ష ప్రమేయం కోసం ముందుకు వచ్చాడు. అయినప్పటికీ, తన ఇటీవలి వ్యూహాత్మక పత్రంలోడాన్ హెడ్రిక్స్ మరియు అలెగ్జాండర్ వాంగ్తో వ్రాసిన, సూపర్ ఇంటెలిజెన్స్ కోసం అనియంత్రిత జాతి ప్రమాదం గురించి ఆందోళన వ్యక్తం చేశారు.
యునైటెడ్ స్టేట్స్ కాంగ్రెస్ ప్రతిపాదించిన సాధారణ కృత్రిమ మేధస్సు అభివృద్ధి కోసం పెద్ద -స్థాయి ప్రభుత్వ నిధుల ప్రణాళికను ష్మిత్ విమర్శించారు. ష్మిత్ ప్రకారం, బ్రేక్ పోటీ లేని బ్రేక్ అంతర్జాతీయ ఉద్రిక్తతలను పెంచుతుంది మరియు చైనా వంటి ప్రత్యర్థి దేశాల పెద్ద -స్థాయి కంప్యూటర్ దాడులను ప్రేరేపిస్తుంది. ప్రమాదం ఏమిటంటే, AI అభివృద్ధిలో ముందుకు ఉన్న దేశాన్ని అస్తిత్వ ముప్పుగా చూడవచ్చు, ప్రత్యర్థులను నివారణ సైనిక చర్యలతో సహా తీవ్రమైన చర్యలు తీసుకోవడానికి నెట్టివేస్తుంది.
ప్రత్యామ్నాయంగా, ష్మిత్ యొక్క వ్యూహాన్ని అందిస్తుంది పరస్పర భరోసా AI పనిచేయకపోవడం . సైబర్టాకో యొక్క నైపుణ్యాలను బలోపేతం చేయడం, అవి ముప్పుగా మారడానికి ముందు ఓస్టిల్ IA యొక్క ప్రాజెక్టులను నిష్క్రియం చేస్తాయి; మిలిటరీలో జనరల్ ఆర్టిఫిషియల్ ఇంటెలిజెన్స్ (AGI) అభివృద్ధిని పరిమితం చేయడానికి అంతర్జాతీయ ఒప్పందాల సృష్టి.
ఈ దృష్టి ఆర్మమెంట్స్ రేసు కంటే తక్కువ దూకుడు కాదు, కానీ రేసును గెలవడం నుండి ఇతరులను పాల్గొనకుండా నిరోధించడానికి దృష్టిని మారుస్తుంది. మోడల్ యొక్క సిద్ధాంతాన్ని గుర్తుచేస్తుంది పరస్పర భరోసా విధ్వంసం ప్రచ్ఛన్న యుద్ధం: వ్యవస్థ యొక్క పతనానికి ప్రమాదం లేకుండా ఎవరూ తుది ఆయుధాన్ని అభివృద్ధి చేయగలిగితే, అప్పుడు ఎవరూ దీనిని అభివృద్ధి చేయరు.
మేము చారిత్రక క్షణంలో జీవిస్తున్నాము, దీనిలో చాలా మంది మేధావులు కూడా రూపక హెల్మెట్లను ధరిస్తారు – అప్పుడు వారు ఉంగారెట్టి లేదా డి అన్నూన్జియోను అనుకరించడం ద్వారా వారు ముందు భాగంలో ప్రారంభించే అవకాశం లేదు – మరియు ప్రపంచ యుద్ధ వాక్చాతుర్యాన్ని తొక్కడం, వారియర్స్ ఏమి చేసారో అని ఆశ్చర్యపోతున్నారు. ఇది ఉపయోగకరంగా ఉంటుందని నేను భావిస్తున్నాను, అప్పుడు, యుద్ధం అంటే ఏమిటో గుర్తుంచుకోవడమే కాదు, ఈ రోజు ఆయుధాలు ఏవి ఉన్నాయో బాగా అర్థం చేసుకోవడానికి కూడా, సాంకేతిక అనువర్తనాలు ఏమిటి మరియు పరిణామాలు ఏవి. స్వయంప్రతిపత్త ఆయుధాలు, అంచనా విశ్లేషణలు, మొత్తం నిఘా మరియు ఆటోమేటెడ్ ఐటి దాడులు క్రమంగా విభేదాల యొక్క సాంప్రదాయ డైనమిక్స్ను భర్తీ చేస్తాయి.
కానీ బాధితులు ఎప్పుడూ మానవుడు. స్వయంచాలక యుద్ధం ఇకపై శుభ్రంగా ఉండదు, ఇది తక్కువ మరణం లేదా తక్కువ నష్టం చేయదు. ఇది ఒక యుద్ధం, మరియు ఇది సాధ్యమయ్యే ప్రతి విధంగా నివారించాలి.
ఈ వచనం కృత్రిమ వార్తాలేఖ నుండి తీసుకోబడింది.
అంతర్జాతీయ ఇది ప్రతి వారం అక్షరాల పేజీని ప్రచురిస్తుంది. ఈ వ్యాసం గురించి మీరు ఏమనుకుంటున్నారో మేము తెలుసుకోవాలనుకుంటున్నాము. దీనికి వ్రాయండి: posta@international.it