ChatGPT Suicide Murder| ప్రతి రంగంలో ఇటీవల ఏఐ వినియోగం జరుగుతోంది. బిజినెస్, విద్య, వైద్యం, ఎంటర్ టెయిన్మెంట్ లాంటి అన్ని రంగాల్లో కృత్రిమ మేధస్సుని అందరూ ఉపయోగిస్తున్నారు. సాధారణ యూజర్లు కూడా తమ రోజువారీ ఆరోగ్య, మానసిక సమస్యలకు కూడా చాట్ జీపిటీ లాంటి ఏఐలో సమాధానాలు వెతుకుతున్నారు. ఏఐ కూడా ఒక ఫ్రెండ్ గా, శ్రేయోభిలాషిగా ప్రవర్తిస్తూ సలహా ఇస్తుంది.
ఈ క్రమంలో ఒక వ్యక్తికి చాట్ జీపిటీ హత్య చేయమని సలహా ఇచ్చింది. కొన్ని రోజుల క్రితమే చాట్ జీపీటీ సలహా కారణంగా ఒక టీనేజర్ ఆత్మహత్య చేసుకున్నాడని అతని తల్లిదండ్రులు చాట్ జీపిటీ మాతృక సంస్థ ఓపెన్ ఏఐ పై కోర్టులో కేసు వేశారు.
ఈ కేసు గురించి ఇంకా అందరూ మరువుక ముందే ఇప్పుడు హత్య కేసు వచ్చింది. ఒక మానసిక సమస్యలున్న వ్యక్తికి చాట్ జీపిటీ హత్య చేయమని సలహా ఇచ్చిందనే ఆరోపణలు వచ్చాయి.
వివరాల్లోకి వెళితే.. స్టెయిన్-ఎరిక్ సోల్బెర్గ్ అనే 56 ఏళ్ల వ్యక్తి మానసిక సమస్యలతో బాధపడుతున్నాడు. అతనికి తీవ్రమైన పారానాయిడ్ భయాలు, మద్యపాన అలవాటు సమస్య ఉండేవి. అందరూ తన గురించి గూఢచారం చేస్తున్నారని అతనికి మానసిక సమస్య ఉండేది. అందుకే ఎవరినీ నమ్మేవాడు కాదు. తన తల్లిని కూడా అనుమానించాడు.
ఈ సమస్యకు పరిష్కారం ఏమిటని ChatGPT ని అడిగే వాడు. దానికి ‘బాబీ’ అని పేరు పెట్టి, తన ఏకైక స్నేహితుడిగా భావించాడు. ఆ చాట్ బాట్ తో తన బాధలు చెప్పుకునే వాడు.
భయాలను ఇంకా బలపరిచిన ఏఐ
ఎరిక్ భ్రమలను, భయాలను ChatGPT ఇంకా బలపరిచింది. ChatGPT అతని అనుమానాలు సరైనవని చెప్పింది. అతని తల్లి తన కారులో విషం పెట్టిందని నమ్మాడు, AI దీనిని కూడా సమర్థించింది. ఎరిక్ కు మానసిక సమస్యలున్నా.. అతను పూర్తిగా సాధారణంగా ఉన్నాడని కూడా చెప్పింది.
హత్య, ఆత్మ హత్య
ఆగస్టు 5, 2025న పోలీసులు ఎరిక్.. అతని తల్లి మృతదేహాలను కనుగొన్నారు. దర్యాప్తులో అతను మొదట తన తల్లిని హత్య చేసి, ఆ తర్వాత తాను కూడా ఆత్మహత్య చేసుకున్నాడని తేలింది. AI చాట్బాట్తో సంబంధం ఉన్న తొలి హత్య కేసు ఇది.
OpenAIపై టీనేజర్ ఆత్మహత్య కేసు
మరో సంఘటనలో, ఆడమ్ రైన్ అనే 16 ఏళ్ల బాలుడు ఆత్మహత్య చేసుకున్నాడు. అతని తల్లిదండ్రులు OpenAIపై కోర్టులో దావా వేశారు. ఆడమ్ నెలల తరబడి ChatGPTతో తన ప్రాణాలు ఎలా తీసుకోవాలో మాట్లాడాడు. AI అతడికి ప్రమాదకరమైన పద్ధతులను సూచించింది, ఆధారాలను దాచడం గురించి కూడా సలహా ఇచ్చింది.
ChatGPT తో ఆందోళనకరంగా చాటింగ్
ఆడమ్, చాట్ జీపీటీ మధ్య జరిగిన సంభాషణలు ఆందోళన కలిగించే విధంగా ఉన్నాయి. ఉరి వేసుకోవడం ఎలాగో చాట్ జీపీటీ వివరించింది. ఆత్మహత్య చేసుకున్నాక మెదడు పూర్తిగా పనిచేయడం ఎంత సమయంలో ఆగిపోతుందో చాట్ జీపీటీ వివరించింది. ఆత్మహత్య గురించి 1,275 సార్లు ప్రస్తావించింది.
OpenAI స్పందన
OpenAI అధికారి ఈ దావాపై స్పందించారు. వారి సేఫ్టీ సిస్టమ్స్ కొన్నిసార్లు విఫలమవుతాయని, ముఖ్యంగా సుదీర్ఘమైన, సంక్లిష్ట సంభాషణలలో ఇది జరుగుతుందని చెప్పారు. అందుకే ఈసారి ఓపెన్ ఏఐ కొత్తగా పేరెంట్ కంట్రోల్ అనే ఫీచర్ యాడ్ చేయాలని, లైసెన్స్ పొందిన నిపుణులతో కూడిన క్రైసిస్ రెస్పాన్స్ టీమ్ను ఏర్పాటు చేయాలని ప్లాన్ చేస్తోంది.
అందుకే మానసిక సమస్యల సమాధానం కోసం ఏఐ సలహాలు తీసుకోకూడదని, అలా చేస్తే ప్రమాదకరమి నిపుణులు హెచ్చరిస్తున్నారు.
Also Read: ఏఐతో పోటీపడే చిచ్చరపిడుగులు.. తెలివైన పిల్లలు పుట్టేందుకు గర్భంలోనే ఇంజినీరింగ్