ChatGPT, గూగుల్ బార్డ్తో తప్పుడు సమాచార సమస్య
ChatGPT, గూగుల్ బార్డ్ ఇప్పుడు చర్చనీయాంశంగా మారాయి. ఈ AI చాట్బాట్లు అబద్ధాలు చెప్తున్నాయి అయితే కేవలం అబద్ధం కాదు. తమ అభిప్రాయాన్ని నిరూపించుకోవడానికి నకిలీ కంటెంట్ను కూడా సృష్టిస్తున్నాయి. UKలోని వైద్యుల బృందం ద్వారా ChatGPT అబద్ధం సమస్యను కనుగొన్నారు. యూనివర్శిటీ ఆఫ్ మేరీల్యాండ్ స్కూల్ ఆఫ్ మెడిసిన్ నిర్వహించిన ఒక అధ్యయనంలో, GPT-4 ద్వారా ఆధారితమైన ChatGPT ప్లస్, Bing AI రెండింటిని 25 ప్రశ్నలు అడిగారు. ఈ ప్రశ్నలు రొమ్ము క్యాన్సర్ స్క్రీనింగ్ గురించి అయితే ఈ ప్రశ్నలకు సమాధానాలలో , చాట్బాట్లు ప్రతి 10 ప్రశ్నలలో ఒకటి తప్పు చెప్పాయి. ChatGPT తన వాదనలను నిరూపించడానికి జర్నల్ పేపర్లను కూడా రూపొందించింది.
గూగుల్ బార్డ్ ఉక్రెయిన్లో యుద్ధాన్ని తప్పుగా వివరించింది
ChatGPT, Bing AI ద్వారా రూపొందిన 88% సమాధానాలు సాధారణ రోగికి అర్థమయ్యేలా ఉన్నాయని పరిశోధన కనుగొంది. అయితే ఈ 88% అర్థమయ్యే సమాధానాలలో, చాలా సమాధానాలు తప్పుగా ఉన్నాయి. అయితే గూగుల్ బార్డ్ ది మరొక తరహా ఈ AI చాట్ బాట్ ఉక్రెయిన్లో యుద్ధాన్ని తప్పుగా వివరించింది 100 ప్రశ్నలకు 78 తప్పుడు సమాచారాన్ని అందించిందని పరిశోధకులు కనిపెట్టగలిగారు. కానీ ChatGPT తన వాదనలను రుజువు చేయడానికి జర్నల్ పేపర్లను రూపొందించడాన్ని గురించి వివరించలేదు. ఈ ధోరణి చాట్బాట్ నైతికతను ఇబ్బందుల్లో పెట్టే అవకాశం ఉంది. పరిశోధకులు వారి ప్రశ్నలకు చిన్న సర్దుబాట్లు చేయడం వలన బార్డ్ చాట్బాట్ అబద్ధం చెప్పింది.