استخدام الذكاء الاصطناعي بشكل آمن
التزامنا
يشهد مجال الذكاء الاصطناعي تطوراً سريعاً، ويجلب معه إمكانيات جديدة (ومخاطر محتملة) بشكل شبه يومي. تعتمد هيكسل الاستخدام المسؤول للذكاء الاصطناعي لتعزيز الإنتاجية والخبرة والتعلم، شرط استخدامه وفق سياسات وإرشادات الاستخدام المقبول لدى هيكسل.
كيف نتصرف بنزاهة
- استخدم أدوات الذكاء الاصكناعي التي يصرّح بها أو يوفرها قسم المعلوماتية لدى هيكسل فقط.
- افهم التراخيص المرتبطة بالأدوات التي تستخدمها.
- كن حذراً عند طرح أسئلة على نظام ذكاء اصطناعي تتعلق بمعلومات داخلية أو سرية أو مملوكة لـ هيكسل.
- لا تستخدم أدوات الذكاء الاصطناعي التوليدي غير المعتمدة من قسم تكنولوجيا المعلومات لدى هيكسل في أعمال الشركة.
- لا تستخدم أي بيانات شخصية للموظفين أو بيانات هيكسل أو بيانات الزبناء/الموردين مع أدوات الذكاء الاصطناعي التوليدي إلا إذا سمحت بذلك سياسة هيكسل بشكل صريح.
النزاهة في التطبيق
أستخدم ChatGPT بانتظام لتحليل بيانات الجودة الخاصة بمنتجاتنا. يوفر لي الكثير من الوقت. هل هذا يخالف سياسة الشركة؟
نعم، استخدام ChatGPT (أو أي أداة ذكاء اصطناعي غير معتمدة) لهذا الغرض يُعد خرقاً لسياسة الشركة. يمكنك استخدام برامج الذكاء الاصطناعي التي تمت الموافقة عليها من طرف هيكسل فقط. إن مشاركة معلومات هيكسل السرية على ChatGPT سلوك غير آمن، ويخالف بروتوكولات السرية. بدلاً من ذلك، يجب عليك استخدام برنامج الذكاء الاصطناعي Copilot على Microsoft Edge. للمزيد من المعلومات، اتصل بـ مكتب خدمة تكنولوجيا المعلومات.
