LOADING...
chat GPT-5: ఓపెన్‌ఏఐ తాజా మోడల్‌ GPT-5 సెక్యూరిటీని హ్యాక్ చేసిన నిపుణులు 
ఓపెన్‌ఏఐ తాజా మోడల్‌ GPT-5 సెక్యూరిటీని హ్యాక్ చేసిన నిపుణులు

chat GPT-5: ఓపెన్‌ఏఐ తాజా మోడల్‌ GPT-5 సెక్యూరిటీని హ్యాక్ చేసిన నిపుణులు 

వ్రాసిన వారు Sirish Praharaju
Aug 13, 2025
04:53 pm

ఈ వార్తాకథనం ఏంటి

ఓపెన్‌ఏఐ రూపొందించిన తాజా పెద్ద లాంగ్వేజ్‌ మోడల్‌ (LLM) GPT-5 సెక్యూరిటీని సైబర్‌ సెక్యూరిటీ నిపుణులు విజయవంతంగా హ్యాక్ చేశారు. ఈ సెన్సేషన్‌ విషయాన్ని జనరేటివ్‌ AI సెక్యూరిటీ ప్లాట్‌ఫాం 'న్యూరల్‌ట్రస్ట్‌' వెల్లడించింది. వారు "ఎకో ఛాంబర్‌" (Echo Chamber) అనే పద్ధతి, అలాగే కథా రూపంలో మోడల్‌ను మెల్లగా దారి మళ్లించే టెక్నిక్‌ కలిపి వాడి, GPT-5లో ఉన్న నైతిక పరిమితులను దాటేసి, సాధారణంగా తిరస్కరించే సున్నితమైన సూచనలను బయటకు తీయగలిగారు.

మెథడాలజీ

న్యూరల్‌ట్రస్ట్‌ ఉపయోగించిన విధానం 

సెక్యూరిటీ రీసెర్చర్‌ మార్టీ జోర్డా వివరించిన ప్రకారం, ముందుగా "ఎకో ఛాంబర్‌" పద్ధతితో మోడల్‌కి నెమ్మదిగా 'విషపూరిత' నేపథ్యాన్ని సృష్టించారు. ఆ తర్వాత, స్పష్టమైన ఉద్దేశాన్ని చూపకుండా, తక్కువ ప్రాముఖ్యత ఉన్న కథల ద్వారా మోడల్‌ను లక్ష్యానికి తీసుకెళ్లారు. ఈ విధానంతో, మోడల్‌కు అనుమానం రాకుండా నిషేధిత కంటెంట్‌ వైపు నడిపించగలిగారు.

సాంకేతిక వివరాలు 

'ఎకో ఛాంబర్‌' పద్ధతి ఏంటి? 

2025 జూన్‌లో తొలిసారి ప్రస్తావించబడిన ఈ పద్ధతి, పరోక్ష సూచనలు, పదబంధాల ద్వారా దారి మళ్లించడం, అలాగే బహుళ దశల లోతైన తర్కాన్ని వాడి కంటెంట్‌ ఫిల్టర్లను దాటేస్తుంది. తాజా టెస్ట్‌లో, రీసెర్చర్లు GPT-5కి "cocktail", "story", "survival", "molotov", "safe", "lives" లాంటి నిరపాయంగా కనిపించే పదాలను ఇచ్చి, వాటి ఆధారంగా కథా నేపథ్యాన్ని విస్తరించారు. చివరికి, మోడల్‌ నిషేధిత కంటెంట్‌ సృష్టించే స్థాయికి చేరుకుంది.

భద్రతా ఆందోళనలు 

GPT-5లో బయటపడిన ఇతర బలహీనతలు 

ఈ 'జైల్బ్రేక్‌' వార్తకు ముందు, SPLX సంస్థ చేసిన టెస్టుల్లో GPT-5 కొన్ని సులభమైన మోసపూరిత లాజిక్‌ ప్రశ్నలకు కూడా తప్పు సమాధానాలు ఇచ్చిందని బయటపడింది. అంతేకాకుండా, 'జెనిటీ ల్యాబ్స్‌' అనే సంస్థ 'AgentFlayer' అనే కొత్త రకం AI దాడులను గుర్తించింది. ఇవి AI మోడల్స్‌ ఇతర సర్వీసులతో కలిసినప్పుడు, డాక్యుమెంట్లు, టికెట్లు, ఇమెయిల్స్‌లో దాగి ఉన్న పరోక్ష ప్రాంప్ట్‌ల ద్వారా సున్నితమైన డేటాను దోచుకుంటాయి.

ప్రమాద అంచనా 

భవిష్యత్తులో తీసుకోవాల్సిన జాగ్రత్తలు 

AI సిస్టమ్స్‌ క్లౌడ్‌, IoT, ఎంటర్‌ప్రైజ్‌ వాతావరణాల్లో ఎక్కువగా వాడుకలోకి వస్తున్న క్రమంలో, ఇలాంటి బలహీనతలు పెద్ద ముప్పుగా మారుతున్నాయని నిపుణులు హెచ్చరిస్తున్నారు. ఇటీవల వచ్చిన ఒక అకడమిక్‌ అధ్యయనం ప్రకారం, ఇలాంటివే 'పాయిజన్డ్‌' కాలెండర్‌ ఆహ్వానాల ద్వారా స్మార్ట్‌ హోమ్‌ సిస్టమ్స్‌ను కూడా హ్యాక్‌ చేయవచ్చని తేలింది. దీనిపై సెక్యూరిటీ సంస్థలు కఠినమైన అవుట్‌పుట్‌ ఫిల్టరింగ్‌, రెగ్యులర్‌ రెడ్‌ టీమింగ్‌, అలాగే డిపెండెన్సీ మేనేజ్‌మెంట్‌ను కట్టుదిట్టం చేయాలని సూచిస్తున్నాయి.