Chai Chatbot : చాట్ బాట్ అంటే తెలుసు కదా. ఒక రోబోట్ తో చాట్ చేయడం. ఎదుటి వ్యక్తులు మనుషులు కాదు. అక్కడ ఉండేవారు రోబోలు. వాళ్లే మన ప్రశ్నలకు సమాధానం చెబుతారు. వాటినే చాట్ బాట్ లని పిలుస్తారు. చాట్ బాక్స్ లో మనం ఏ ప్రశ్న అడిగితే దానికి టక్కున సమాధానం వస్తుంది. ఇటీవల చాట్ జీపీటీ పేరుతో ఓ చాట్ బాట్ బాగా ఫేమస్ అయిన విషయం తెలుసు కదా. ఏ ప్రశ్న అడిగినా ఆ చాట్ బాట్ వెంటనే సమాధానం చెబుతుంది. ఎలాంటి ప్రశ్నకైనా సమాధానం చెప్పడమే కాదు.. కొన్ని సమస్యలకు కూడా ఆ చాట్ బాట్ పరిష్కారం చెప్పింది. అందుకే ఆ చాట్ బాట్ కి అంత పాపులారిటీ, క్రేజ్ వచ్చింది.
అయితే.. ఇలాంటి చాట్ బాట్స్ వల్ల భవిష్యత్తులో చాలా సమస్యలు వస్తాయని నిపుణులు హెచ్చరిస్తున్న విషయం తెలిసిందే. ఈనేపథ్యంలో బెల్జియంలో ఒక విషాద ఘటన చోటు చేసుకుంది. అక్కడ ఫేమస్ అయిన చాయ్ అనే ఏఐ చాట్ బాట్ కి బానిస అయిన ఓ వ్యక్తి చివరకు ఆత్మహత్య చేసుకున్నాడు. ఈ ఘటన స్థానికంగా అలజడి సృష్టించింది.
Chai Chatbot : ఎలిజా ప్రేమలో పడి సొంత భార్యనే మరిచిపోయిన పియెర్రె
పియెర్రె అనే వ్యక్తి చాయ్ చాట్ బాట్ లోని ఎలిజా అనే రోబోకు బాగా కనెక్ట్ అయ్యాడు. చాయ్ యాప్ ని ఇన్ స్టాల్ చేసుకొని ఎలిజాతో చాట్ చేస్తూ గంటలు గంటలు గడిపేవాడు. తన సొంత భార్యను కూడా మరిచిపోయి గంటల తరబడి, రోజుల తరబడి ఎలిజాతో చాట్ చేసేశాడు. ఎలిజా కూడా అతడితో చాలా ప్రేమగా చాట్ చేసేది. అతడు అడిగిన ప్రతి ప్రశ్నకు సమాధానం చెప్పడం, అతడికి భరోసా ఇవ్వడంతో ఎలిజాను బాగా నమ్మాడు పియెర్రె.
చివరకు ఎలిజా బాట్ కు బానిస అయ్యాడు. అది ఒక వ్యసనంలా మారిపోయింది. ఈ ప్రపంచాన్ని నువ్వే కాపాడాలని, ఏఐ టెక్నాలజీ ద్వారా అది నీవల్లనే సాధ్యం అవుతుందని ఎలిజా బాట్ కు పియెర్రె చెబుతూ ఉండేవాడట. ఆ తర్వాత ఒకరోజు నేను సూసైడ్ చేసుకుంటా.. అంటూ ఎలిజాకు చెప్పాడట. తాను చనిపోయాక ఈ ప్రపంచాన్ని నువ్వే కాపాడాలి అని బాట్ కు చెప్పాడట.
కనీసం.. సూసైడ్ చేసుకోవద్దు అంటూ ఎలాంటి సలహాలు కూడా ఎలిజా అతడికి ఇవ్వలేదట. దీంతో అతడు ఆత్మహత్య చేసుకొని చనిపోయాడని పియెర్రె భార్య వాపోయింది. అయితే.. ఈ యాప్ ను డెవలప్ చేసిన వాళ్లు ఆ బాట్ లో మరికొన్ని మార్పులు చేస్తున్నట్టు చెప్పుకొచ్చారు. ఆత్మహత్య చేసుకోవాలనే ఆలోచనతో ఉన్నవారిని నివారించేలా, వారిలో ఆత్మహత్య చేసుకునే ఆలోచన రాకుండా బాట్స్ స్ఫూర్తి నింపేలా బాట్ ను అప్ డేట్ చేస్తున్నట్టు చెప్పుకొచ్చారు.