وكالات - الاقتصادي - يمكن للمستخدمين طرح العديد من الأسئلة في مجالات عديدة على أداة الذكاء الاصطناعي ChatGPT للحصول على إجابات مباشرة ومرتبة، إذ يمكن استخدامه في كتابة المقالات والأكواد البرمجية وتصحيحها، وتلخيص رسائل البريد الإلكتروني الطويلة، وتحليل كميات كبيرة من البيانات، وكذلك الحصول على أفكار جديدة، ولكن كما هو الحال مع أي تقنية جديدة لها جانب مظلم، لذلك لا يمكن أن تثق به ثقة كاملة.
مثل العديد من نماذج الذكاء الاصطناعي التوليدي، فإن ChatGPT لديها قيود في بيانات التدريب الخاصة به، وكل من القيود في بيانات التدريب والتحيز في البيانات يمكن أن يخلق تأثيرًا سلبيًا في مخرجات النموذج
كما اعترفت شركة (OpenAI) بأن نموذجها (GPT-4) الأحدث لا يزال غير محصن ضد (الهلوسة) Hallucinations، وهي ميل الذكاء الاصطناعي إلى توليد ردود خطأ أو أخطاء منطقية، بالرغم من تدريبه وتحسين أدائه بنسبة 40% من الإصدار السابق (GPT-3.5) في تقديم الردود الواقعية.
إليك أبرز الأشياء التي لا يجب أن تستخدم روبوت ChatGPT من أجلها:
1- لا تستخدم ChatGPT مع المعلومات الحساسة:
تحفظ شركة (OpenAI) محادثات المستخدمين مع روبوت ChatGPT لتحليلها في المستقبل؛ كما يمكن لموظفيها مراجعة المحادثات بشكل انتقائي لتحسين أنظمتها، كما تحتفظ ببياناتك التي تتضمن تفاصيل الحساب مثل: اسمك وعنوان البريد الإلكتروني، بالإضافة إلى عنوان IP ومعلومات الجهاز، وبيانات بطاقة الائتمان، عند استخدامه، إذا اشتركت في إصدار (ChatGPT Plus).
بالإضافة إلى ذلك؛ تعرّض روبوت ChatGPT منذ أن أصبح متاحًا للجمهور في أكتوبر 2022 حتى الآن لعدة حوادث تسريب بيانات، وفي واحدة من هذه الحوادث أدى خطأ تقني إلى تسريب بعض بيانات المستخدمين، ومنها أسماؤهم وعناوين بريدهم الإلكتروني، والأرقام الأربعة الأخيرة من رقم بطاقة الائتمان المسجلة في الإصدار المدفوع من الروبوت، وتاريخ انتهاء صلاحية البطاقة.
لذلك لا يعتبر ChatGPT قناة آمنة لمشاركة المعلومات الحساسة أو التعامل معها، ويتضمن ذلك: البيانات المالية وكلمات المرور و المعلومات الشخصية وبيانات العمل السرية.
كما يجب عليك توخي الحذر عند استخدام ChatGPT في أداء أي مهمة متعلقة بعملك تجنبًا لتسريب بيانات الشركة وتعريض نفسك للمساءلة، إذ تسبب روبوت ChatGPT في تسريب أسرار شركة سامسونج التجارية، مما دفعها إلى منع موظفيها من استخدامه، كما فعلت ذلك آبل أيضًا.
2- لا تستخدم ChatGPT للحصول على مشورة قانونية أو طبية:
ChatGPT هو نموذج لغوي كبير (LLM) مُدرب على كميات هائلة من البيانات من الإنترنت ومصادر أخرى، ويعتمد على هذه البيانات لتوليد استجابات شبيهة بالمحادثات البشرية، ولكنه لا يقدم بالضرورة معلومات دقيقة بشكل كامل، وهو عُرضة للخطأ.
لذلك لا يمكنه تقديم مشورة قانونية أو طبية دقيقة، إذ تستند ردوده إلى الأنماط والمعلومات المتوفرة في البيانات التي دُرب عليها، ولا يمكنه فهم الفروق الدقيقة وخصوصيات القضايا القانونية أو الطبية الفردية. وهنا يجب عليك دائمًا استشارة أحد المتخصصين المؤهلين للحصول على هذه المشورة، مع أنه قد يوفر معلومات عامة حول الموضوعات القانونية أو الطبية.
3- لا تستخدمه لاتخاذ قرارات بالنيابة عنك:
يمكن لروبوت ChatGPT توفير المعلومات واقتراح الخيارات وحتى محاكاة عمليات اتخاذ القرار بناءً على المطالبات التي تقدمها له، ولكن من الضروري أن تتذكر أن الذكاء الاصطناعي لا يفهم الآثار الواقعية لمخرجاته، وأنه غير قادر على النظر في جميع الجوانب الإنسانية التي ينطوي عليها صنع القرار، مثل: العواطف أو الأخلاق أو القيم الشخصية.
وبينما يمكن اعتباره أداة مفيدة لتبادل الأفكار أو استكشافها، يجب عليك دائمًا اتخاذ القرارات النهائية بعد التفكير في كافة جوانبها جيدًا. وضع في اعتبارك دائما أن ChatGPT هو مجرد أداة مفيدة توفر الوقت فقط.
4- لا تستخدمه كمصدر موثوق:
عادة ما تميل روبوتات الدردشة التفاعلية (Chatbots) إلى تقديم معلومات غير صحيحة وغير دقيقة بسهولة، على الرغم من كل ما تقدمه هذه الروبوتات اليوم بشكل صحيح. إذ يمكن لأي شخص يتحدث معها بالقليل من الإقناع أن يقنعها بشرح ما يمكن أن يفعله سواء كان صحيحًا أو خطأ.
لذلك دربت شركة (OpenAI) نموذج (GPT-4) الأحدث على الكثير من المطالبات الخبيثة التي قدمها المستخدمون أنفسهم للروبوت منذ إطلاقه، لذلك يُعد النموذج الجديد أفضل بكثير من سابقه في الإجابات الواقعية، ومع ذلك؛ اعترفت الشركة بأنه لا يزال غير محصن ضد (الهلوسة)، وهي ميل الذكاء الاصطناعي إلى توليد ردود خطأ أو أخطاء منطقية.
لذلك يجب عليك التحقق من أي معلومات يقدمها لك سواء كانت مع مصادر موثوقة أم لا، خاصة فيما يتعلق بالمسائل المهمة مثل: الأخبار أو الحقائق العلمية أو الأحداث التاريخية.
5- لا تستخدم ChatGPT في حل المسائل الرياضية المعقدة:
لم تذكر شركة (OpenAI) حتى الآن أنها دربت ChatGPT على كميات كبيرة من نصوص الرياضيات والعلوم، والأوراق العلمية التي تحتوي على التعبيرات الرياضية المعقدة لتحسين قدراته في التفكير المنطقي والاستدلال والرياضيات، كما فعلت جوجل مع نموذج (PaLM 2) الذي يعمل به روبوت Bard.
لذلك لا يمكنك الاعتماد على ChatGPT في حل المسائل الرياضية والمعادلات والمشكلات المعقدة؛ لأن إمكانياته في هذا المجال ما تزال محدودة.