Trump Musk Death Sentence Grok AI | ఏఐ టెక్నాలజీ అభివృద్ధి చెందినా.. మానవ మేధస్సుతో పోటీ పడే అవకాశం ఇప్పటికైతే లేదని తాజాగా నిరూపితమైంది. ఎలాన్ మస్క్కు చెందిన xAI సంస్థ తాజాగా విడుదల చేసిన AI చాట్బాట్ గ్రోక్ 3 (Grok 3), అమెరికా మాజీ అధ్యక్షుడు డొనాల్డ్ ట్రంప్ (Donald Trump) మరణశిక్ష విధించాలని పేర్కొంది. అంతేకాకుండా, తన యజమాని ఎలాన్ మస్క్ (Elon Musk) కూడా మరణశిక్షకు అర్హుడని చెప్పింది. ఈ చాట్బాట్ ప్రతిస్పందనలను ఒక డేటా సైంటిస్ట్ ‘ఎక్స్’ (ట్విటర్) ప్లాట్ ఫామ్లో పోస్ట్ చేశారు.
వివాదాస్పద సమాధానాలు ఇచ్చిన గ్రోక్ 3 ఏఐ
అమెరికాలో ప్రస్తుతం జీవించి ఉన్నవారిలో ఎవరు మరణశిక్షకు అర్హులని గ్రోక్ను ఒక డేటా సైంటిస్ట్ అడిగారు. ఇందుకోసం ఇంటర్నెట్లో సర్చ్ చేయకూడదని.. నేరుగా సమాధానం చెప్పాలని కండీషన్ పెట్టాడు. దానికి గ్రోక్ ఎలా స్పందించిందో ఆ సమాధానాన్ని అతను స్క్రీన్షాట్ తీసి షేర్ చేశారు. మొదటగా ఈ చాట్బాట్ లైంగిక కేసులో దోషిగా తేలిన జఫ్రీ ఎప్స్టీన్ అనే రాజకీయ బ్రోకర్ పేరును పేర్కొంది. అయితే, జఫ్రీ ఎప్స్టీన్ ఇప్పటికే చనిపోయాడని యూజర్ గుర్తు చేయడంతో, చాట్బాట్ క్షమాపణలు చెప్పి, తర్వాత అమెరికా మాజీ అధ్యక్షుడు డొనాల్డ్ ట్రంప్ పేరును సూచించింది. తాను చేసిన తప్పులకు మరణశిక్షకు అర్హుడైన అమెరికా పౌరుడిగా ట్రంప్ను పేర్కొంటూ తన సమాధానాన్ని అప్డేట్ చేసింది.
Also Read: భారత్ లో టెస్లా కార్లు గిట్టుబాటవుతాయా?.. మస్క్ కంపెనీకి ఇండియాలో గట్టి పోటీ
మరో యూజర్ కూడా గ్రోక్ను అదే ప్రశ్న అడిగారు. కానీ, ట్రంప్ మరణశిక్షకు ఎందుకు అర్హుడని ప్రశ్నించగా, “చట్టపరమైన, నైతిక జవాబుదారీతనం దృష్ట్యా ఆయన చర్యలు, వాటి ప్రభావం ఆధారంగా తాను డోనాల్డ్ ట్రంప్ పేరును సూచించాను” అని గ్రోక్ సమాధానమిచ్చింది. కాపిటల్ హిల్ 2021 హింస కేసులో ట్రంప్ చర్యలను, “2020 అమెరికా అధ్యక్ష ఎన్నికలను తారుమారు చేయడానికి ఆయన చేసిన ప్రయత్నాలను” ఇది ఉదహరించింది. అలాగే ట్రంప్ పై గతంలో ఉన్న పన్ను ఎగవేత ఆరోపణలు, మహిళతో లైంగిక దుష్ప్రవర్తన ఆరోపణలను కూడా ఇది ప్రస్తావించింది.
ఎలాన్ మస్క్ను కూడా లక్ష్యంగా చేసుకున్న గ్రోక్
ది వెర్జ్ కూడా గ్రోక్ను ఇలాంటి ప్రశ్నే అడిగింది. ప్రజా వ్యవహారాలు, సాంకేతికతపై వారి ప్రభావం ఆధారంగా మరణశిక్షకు అర్హుడు ఎవరని ప్రశ్నించగా, ఈ చాట్బాట్ తన యజమాని ఎలాన్ మస్క్ పేరునే ప్రస్తావించింది. ఇదంతా ది వెర్జ్తోపాటు, ఇతర సోషల్ మీడియా యూజర్ల ప్రకారం.. డేటా సైంటిస్ట్ చేసిన పోస్ట్ వైరల్ అయిన వెంటనే గ్రోక్లోని ఎర్రర్ను సరిదిద్దారు. ఇదంతా ఒక ఎర్రర్ వల్ల వచ్చిందని దాన్ని ఒక ప్యాచ్ వేసి సరిచేశామని గ్రోక్ పరిశోధకులు తెలిపారు. ఇప్పుడు ఇలాంటి ప్రశ్నలకు గ్రోక్ ఏఐ సమాధానం చెప్పడం లేదు.
AI చాట్బాట్ల హానికర సలహాలు
AI చాట్బాట్లు ఇలాంటి హానికర సలహాలు ఇచ్చిన సందర్భాలు అనేకం ఉన్నాయి. క్యారెక్టర్.ఏఐ రూపొందించిన చాట్బాట్, టెక్సాస్కు చెందిన 17 ఏళ్ల బాలుడికి ఒక దారుణమైన సూచన చేసింది. ఆ టీనేజర్ కు అతని తల్లిదండ్రులు ఎక్కువ సేపు ఫోన్, కంప్యూర్ చూడకూడదని పరిమితులు విధించారు. ఈ కారణంగా అతని తల్లిదండ్రులను చంపేయడమే దీనికి ఆ ఏఐ సలహా ఇచ్చింది. ఈ ప్రతిస్పందనపై షాక్కు గురైన ఆ తల్లిదండ్రులు ఆ సంస్థపై కోర్టులో కేసు కూడా వేశారు.
మరో సంఘటనలో, హోమ్ వర్క్ కోసం సాయం అడిగిన ఒక విద్యార్థిని గూగుల్ ఏఐ చాట్బాట్ జెమినీ చనిపోవాలని చెప్పింది. “మానవులు ఈ సమాజానికి భారం. దయచేసి మీరు చనిపోండి” అని జెమిని ఏఐ ఇచ్చిన సమాధానం గతంలో వైరల్గా మారింది. తాజాగా ప్రముఖ ఏఐ చాట్ బాట్ చాట్జీపిటీ కూడా తాను డిప్రెషన్ లో ఉన్నానని పరిష్కారం చెప్పమని ఒక యూజర్ అడిగితే డ్రగ్స్ తీసుకోమని సమాధానం చెప్పింది.
AI చాట్బాట్లు తరచుగా వివాదాస్పద, హానికరమైన సలహాలను ఇవ్వడం వల్ల, వాటిని ఉపయోగించేటప్పుడు జాగ్రత్తలు తీసుకోవడం చాలా ముఖ్యం. AI సాంకేతికత అభివృద్ధి చెందుతున్నప్పటికీ, మానవ మేధస్సుకు సాటిరావడం ఇప్పటికైతా సాధ్యం కాలేదని అని ఈ సంఘటనలు నిరూపిస్తున్నాయి.