Page Loader
ChatGPT, గూగుల్ బార్డ్‌తో తప్పుడు సమాచార సమస్య
చాట్‌బాట్‌లు ప్రతి 10 ప్రశ్నలలో ఒకటి తప్పు చెప్పాయి

ChatGPT, గూగుల్ బార్డ్‌తో తప్పుడు సమాచార సమస్య

వ్రాసిన వారు Nishkala Sathivada
Apr 05, 2023
07:01 pm

ఈ వార్తాకథనం ఏంటి

ChatGPT, గూగుల్ బార్డ్‌ ఇప్పుడు చర్చనీయాంశంగా మారాయి. ఈ AI చాట్‌బాట్‌లు అబద్ధాలు చెప్తున్నాయి అయితే కేవలం అబద్ధం కాదు. తమ అభిప్రాయాన్ని నిరూపించుకోవడానికి నకిలీ కంటెంట్‌ను కూడా సృష్టిస్తున్నాయి. UKలోని వైద్యుల బృందం ద్వారా ChatGPT అబద్ధం సమస్యను కనుగొన్నారు. యూనివర్శిటీ ఆఫ్ మేరీల్యాండ్ స్కూల్ ఆఫ్ మెడిసిన్ నిర్వహించిన ఒక అధ్యయనంలో, GPT-4 ద్వారా ఆధారితమైన ChatGPT ప్లస్, Bing AI రెండింటిని 25 ప్రశ్నలు అడిగారు. ఈ ప్రశ్నలు రొమ్ము క్యాన్సర్ స్క్రీనింగ్ గురించి అయితే ఈ ప్రశ్నలకు సమాధానాలలో , చాట్‌బాట్‌లు ప్రతి 10 ప్రశ్నలలో ఒకటి తప్పు చెప్పాయి. ChatGPT తన వాదనలను నిరూపించడానికి జర్నల్ పేపర్‌లను కూడా రూపొందించింది.

గూగుల్

గూగుల్ బార్డ్‌ ఉక్రెయిన్‌లో యుద్ధాన్ని తప్పుగా వివరించింది

ChatGPT, Bing AI ద్వారా రూపొందిన 88% సమాధానాలు సాధారణ రోగికి అర్థమయ్యేలా ఉన్నాయని పరిశోధన కనుగొంది. అయితే ఈ 88% అర్థమయ్యే సమాధానాలలో, చాలా సమాధానాలు తప్పుగా ఉన్నాయి. అయితే గూగుల్ బార్డ్‌ ది మరొక తరహా ఈ AI చాట్ బాట్ ఉక్రెయిన్‌లో యుద్ధాన్ని తప్పుగా వివరించింది 100 ప్రశ్నలకు 78 తప్పుడు సమాచారాన్ని అందించిందని పరిశోధకులు కనిపెట్టగలిగారు. కానీ ChatGPT తన వాదనలను రుజువు చేయడానికి జర్నల్ పేపర్‌లను రూపొందించడాన్ని గురించి వివరించలేదు. ఈ ధోరణి చాట్‌బాట్ నైతికతను ఇబ్బందుల్లో పెట్టే అవకాశం ఉంది. పరిశోధకులు వారి ప్రశ్నలకు చిన్న సర్దుబాట్లు చేయడం వలన బార్డ్ చాట్‌బాట్ అబద్ధం చెప్పింది.