ChatGPT-யுடன் பகிரக்கூடாத 5 தனிப்பட்ட விபரங்கள்
உங்கள் பாதுகாப்புக்காக AI-யுடன் இத்தகவல்களை ஒருபோதும் பகிர வேண்டாம்
ChatGPT-யுடன் ஒருபோதும் பகிரக்கூடாத 5 தனிப்பட்ட தகவல்கள்
தற்போதைய உலகில் செயற்கை நுண்ணறிவு (AI) கருவிகள் நம் அன்றாட வாழ்க்கையின் ஒரு பகுதியாகி விட்டன. ChatGPT போன்ற AI கருவிகள் நமக்கு கேள்விகளுக்கு பதிலளிக்கவும், கோடு எழுதவும், தகவல்களை விளக்கவும் உதவுகின்றன. ஆனால் இவை “புத்திசாலி நண்பர்கள்” போல தோன்றினாலும், எல்லா விஷயங்களிலும் நம்பிக்கை வைக்கக்கூடிய பாதுகாப்பான இடமல்ல. OpenAI உள்ளிட்ட பல நிறுவனங்கள் பயனர்களை எச்சரித்து, “தனிப்பட்ட அல்லது ரகசிய தகவல்களை பகிர வேண்டாம்” எனத் தெரிவிக்கின்றன.
அதேபோல், Google நிறுவனமும் அதன் Gemini பயனர்களிடம் “மிகவும் ரகசியமான தகவல்கள் அல்லது நீங்கள் பிறரால் பார்க்க விரும்பாத தகவல்களை பகிர வேண்டாம்” என்று கூறியுள்ளது. இதன் பொருள், ChatGPT போன்ற AI கருவிகள் நம் தகவல்களை நிரந்தரமாக பாதுகாப்பது என உறுதி அளிக்க முடியாது என்பதுதான்.
இங்கே ChatGPT-யுடன் ஒருபோதும் பகிரக்கூடாத 5 வகையான தனிப்பட்ட தகவல்கள் கொடுக்கப்பட்டுள்ளன
1. அடையாள விவரங்கள் (Identity Information)
உங்கள் தேசிய அடையாள அட்டை எண், பாஸ்போர்ட் விவரங்கள், ஓட்டுநர் உரிமம், பிறந்த தேதி, முகவரி, தொலைபேசி எண் போன்றவற்றை ஒருபோதும் ChatGPT-யுடன் பகிரக்கூடாது. சில நேரங்களில் இந்த AI கருவிகள் அவற்றை மறைக்க முயற்சிக்கும், ஆனால் பாதுகாப்பான வழி அதைப் பகிராமல் இருப்பதே.
2. மருத்துவ முடிவுகள் (Medical Results)
சிலர் தங்களின் ஆய்வறிக்கை அல்லது மருத்துவ முடிவுகளை விளக்க சொல்ல ChatGPT போன்ற AI கருவிகளைப் பயன்படுத்துகிறார்கள். ஆனால் இது உங்கள் தனியுரிமைக்கு ஆபத்தாகும். மருத்துவர்கள் பின்பற்றும் HIPAA போன்ற சட்டங்கள் AI கருவிகளுக்கு பொருந்தாது. எனவே, மருத்துவ ஆவணங்களை நேரடியாகப் பகிர்வது அபாயகரம். அவசியம் என்றால், பெயர் மற்றும் அடையாளங்களை நீக்கி பகிரவும்.
3. வங்கி மற்றும் நிதி தகவல்கள் (Banking and Financial Information)
உங்கள் வங்கி கணக்கு எண்கள், கிரெடிட் கார்டு விவரங்கள், முதலீட்டு கணக்குகள் அல்லது பிற நிதி தொடர்பான அணுகல் விவரங்களை ஒருபோதும் AI-யுடன் பகிரக்கூடாது. ChatGPT போன்ற கருவிகள் உங்கள் பணப் பாதுகாப்புக்கு வடிவமைக்கப்படவில்லை. எனவே, இத்தகவல்கள் இணைய வழி திருட்டுகளுக்கு வழிவகுக்கக்கூடும்.
4. பணியிடம் அல்லது நிறுவன ரகசியங்கள் (Workplace or Proprietary Data)
பணியிடம் தொடர்பான ஆவணங்கள், கிளையண்ட் விவரங்கள், உள்துறை மின்னஞ்சல்கள் அல்லது நிறுவனத்தின் ரகசியக் கோடுகள் போன்றவற்றை ChatGPT-யில் உள்ளிடுவது மிகப்பெரிய தவறு. 2023ல் Samsung நிறுவனம், ஒரு பணியாளர் ChatGPT வழியாக அவர்களின் ரகசிய கோடுகளை வெளியிட்டதால், AI பயன்பாட்டை முழுமையாகத் தடை செய்தது. AI கருவிகள் பெரும்பாலும் நிறுவனம் சார்ந்த தரவு பாதுகாப்பை உறுதி செய்யாது.
5. கடவுச்சொற்கள் மற்றும் உள்நுழைவு தகவல்கள் (Passwords and Login Credentials)
AI கருவிகள் சிக்கலான பணிகளைச் செய்யும் திறன் பெற்றிருந்தாலும், அவை “password manager” அல்ல. PIN எண்கள், பாதுகாப்பு கேள்விகள், இரட்டை அங்கீகாரம் (2FA) கோடுகள் போன்றவற்றை ChatGPT-யில் எழுதுவது மிகப்பெரிய ஆபத்து. கடவுச்சொற்களை சேமிக்க வேண்டுமானால், அதற்கான பாதுகாப்பான password manager கருவிகளைப் பயன்படுத்துங்கள்.
முடிவாகச் சொல்லப்படும்போது, ChatGPT போன்ற AI கருவிகள் நம் வாழ்க்கையை எளிமையாக்கினாலும், தனிப்பட்ட தகவல்களைப் பகிரும் இடமல்ல. பாதுகாப்பு என்பது நம் கைகளில்தான் தொடங்குகிறது. எப்போதும் நினைவில் கொள்க — AI உங்களுக்காக வேலை செய்யட்டும், ஆனால் உங்கள் தனியுரிமையை விட்டுக் கொடுக்காதீர்கள்.
செய்திகளை உடனுக்குடன் அறிய - எங்கள் WhatsApp குழுவில் இணையுங்கள் |
|---|