Close

تحذّر قوقل موظفيها من التعامل مع روبوتات الذكاء الاصطناعي على رأسها Bard !



لا يبدو أن قوقل تفضّل موظفيها الذين يستخدمون روبوتات الذكاء الاصطناعي داخل مكان العمل، بما في ذلك خدمتها الخاصة Bard ، على الأقل هذه هي الطريقة التي كانت ستؤكدها مصادر مقربة من الشركة لوكالة رويترز ، التي أكدت أن قوقل أبلغت موظفيها بمخاطر هذا النوع من الأدوات.
تحذّر قوقل موظفيها من التعامل مع روبوتات الذكاء الاصطناعي على رأسها Bard !

وقبل كل شيء ، تريد قوقل من موظفيها تجنب مشاركة المعلومات السرية مع روبوتات الدردشة مثل Bard أو ChatGPT لتقليل مخاطر تسرب المعلومات المتعلقة بمشاريعهم أو تقنياتهم قيد التطوير.
هذا على الرغم من الإعلان عن Bard كأداة آمنة تحترم الخصوصية ، فإن قوقل تفضل أن يحد موظفوها من استخدام chatbot في بيئة عملهم ، خاصة عندما يتعلق الأمر بمشاركة المعلومات السرية أو البيانات الحساسة.
عمومًا، تبين في الماضي أن بعض روبوتات الدردشة لديها القدرة على “استيعاب” البيانات التي تم الحصول عليها أثناء محادثاتهم مع المستخدمين لاستخدامها أثناء تعلمهم، ولاحقًا لوحظ كيف قاموا بتكرار تلك البيانات في محادثات أخرى مختلفة تمامًا، وبالتالي زيادة مخاطر تسرب المعلومات الحساسة، وبصرف النظر عن ذلك، في بعض الحالات، تتم مراجعة المحتوى الذي تتم مشاركته مع روبوتات الدردشة من قبل البشر ، مما يؤدي إلى مخاطر أخرى تتعلق بالخصوصية.
وبنفس الطريقة ، فإن قوقل ليست مقتنعة تمامًا بفاعلية هذا النوع من الأدوات في بعض المهام، مثل تلك المتعلقة بالبرمجة، لذلك، كان من المفترض أن يتجنب الموظفون استخدام الكود الذي تم إنشاؤه بواسطة روبوتات المحادثة ، لأنه قد يحتوي على أخطاء.
كانت سامسونج من أوائل الشركات التي حظرت استخدام ChatGPT من قبل موظفيها، وقررت البدء في تطوير أداة خاصة بها تهدف إلى استخدامها من قبل موظفيها، وبعد فترة وجيزة، اتخذت آبل خطوات مماثلة من خلال تقييد استخدام ChatGPT وغيرها من الأدوات القائمة على الذكاء الاصطناعي لموظفيها، أيضًا خوفًا من تسرب المعلومات، وتعد حالة قوقل أكثر إثارة للإعجاب، حيث لا يبدو أنها متأكدة من أن أداتها الخاصة Bard ستكون قادرة على الحفاظ على سرية البيانات التي تم الحصول عليها أثناء المحادثات مع المستخدمين.

ليست هناك تعليقات: