اشراق
10-26-2023, 12:31 AM
https://img.youm7.com/large/202005101154115411.jpg
حذر تقرير هو الأول من نوعه من إمكانية استغلال ChatGPT وأنظمة
الذكاء الاصطناعي الأخرى لشن هجمات إلكترونية وإسقاط أنظمة
كمبيوتر أخرى، حيث كشف باحثون من جامعة شيفيلد عن ثغرة أمنية
في ستة أدوات تجارية للذكاء الاصطناعي من خلال مهاجمة كل
واحدة منها بنجاح، وفقاً لصحيفة "مترو".
اكتشف الخبراء أن بإمكانهم إنتاج تعليمات برمجية ضارة إذا طرحوا
أسئلة محددة على منصات مختلفة، بمجرد تنفيذ الكود، يمكن أن يؤدي
إلى تسريب معلومات سرية ومقاطعة - أو حتى تدمير - الخدمات.
https://lh5.googleusercontent.com/-RATFxDJplv4/Tx2XWvO5MzI/AAAAAAAAARs/xTI2z7Fcdpw/h80/0_61c41_810715ef_M.jpg.png
وقد تم بالفعل استخدام عمل الفريق لتعزيز منصات الذكاء الاصطناعي
التجارية، على الرغم من أنهم يحذرون من أن الاستراتيجيات السيبرانية
المحدثة قيد التطوير باستمرار.
هذه الدراسة، التي أجراها أكاديميون من قسم علوم الكمبيوتر في
جامعة شيفيلد بالمملكة المتحدة، هي الأولى التي تظهر أن أنظمة
تحويل النص إلى SQL - الذكاء الاصطناعي الذي يمكّن الأشخاص
من البحث في قواعد البيانات عن طريق طرح الأسئلة بلغة بسيطة
تُستخدم في مجموعة واسعة من الصناعات - يمكن أن تكون
استغلالها لمهاجمة أنظمة الكمبيوتر في العالم الحقيقي.
https://lh5.googleusercontent.com/-RATFxDJplv4/Tx2XWvO5MzI/AAAAAAAAARs/xTI2z7Fcdpw/h80/0_61c41_810715ef_M.jpg.png
وكشفت النتائج التي توصلوا إليها كيف يمكن اختراق أنظمة الذكاء
الاصطناعي والتلاعب بها للمساعدة في سرقة المعلومات الحساسة،
أو التلاعب بقواعد البيانات بأكملها أو تدميرها، أو حتى إسقاط
الخدمات من خلال هجمات رفض الخدمة.
وقال شوتان بينج، طالب دكتوراه الذي شارك في قيادة البحث بجامعة
شيفيلد: "في الواقع، العديد من الشركات ببساطة لا تدرك هذه الأنواع
من التهديدات، ونظرًا لتعقيد روبوتات الدردشة، حتى داخل المجتمع،
هناك أشياء غير مفهومة تمامًا".
https://lh5.googleusercontent.com/-RATFxDJplv4/Tx2XWvO5MzI/AAAAAAAAARs/xTI2z7Fcdpw/h80/0_61c41_810715ef_M.jpg.png
حذر تقرير هو الأول من نوعه من إمكانية استغلال ChatGPT وأنظمة
الذكاء الاصطناعي الأخرى لشن هجمات إلكترونية وإسقاط أنظمة
كمبيوتر أخرى، حيث كشف باحثون من جامعة شيفيلد عن ثغرة أمنية
في ستة أدوات تجارية للذكاء الاصطناعي من خلال مهاجمة كل
واحدة منها بنجاح، وفقاً لصحيفة "مترو".
اكتشف الخبراء أن بإمكانهم إنتاج تعليمات برمجية ضارة إذا طرحوا
أسئلة محددة على منصات مختلفة، بمجرد تنفيذ الكود، يمكن أن يؤدي
إلى تسريب معلومات سرية ومقاطعة - أو حتى تدمير - الخدمات.
https://lh5.googleusercontent.com/-RATFxDJplv4/Tx2XWvO5MzI/AAAAAAAAARs/xTI2z7Fcdpw/h80/0_61c41_810715ef_M.jpg.png
وقد تم بالفعل استخدام عمل الفريق لتعزيز منصات الذكاء الاصطناعي
التجارية، على الرغم من أنهم يحذرون من أن الاستراتيجيات السيبرانية
المحدثة قيد التطوير باستمرار.
هذه الدراسة، التي أجراها أكاديميون من قسم علوم الكمبيوتر في
جامعة شيفيلد بالمملكة المتحدة، هي الأولى التي تظهر أن أنظمة
تحويل النص إلى SQL - الذكاء الاصطناعي الذي يمكّن الأشخاص
من البحث في قواعد البيانات عن طريق طرح الأسئلة بلغة بسيطة
تُستخدم في مجموعة واسعة من الصناعات - يمكن أن تكون
استغلالها لمهاجمة أنظمة الكمبيوتر في العالم الحقيقي.
https://lh5.googleusercontent.com/-RATFxDJplv4/Tx2XWvO5MzI/AAAAAAAAARs/xTI2z7Fcdpw/h80/0_61c41_810715ef_M.jpg.png
وكشفت النتائج التي توصلوا إليها كيف يمكن اختراق أنظمة الذكاء
الاصطناعي والتلاعب بها للمساعدة في سرقة المعلومات الحساسة،
أو التلاعب بقواعد البيانات بأكملها أو تدميرها، أو حتى إسقاط
الخدمات من خلال هجمات رفض الخدمة.
وقال شوتان بينج، طالب دكتوراه الذي شارك في قيادة البحث بجامعة
شيفيلد: "في الواقع، العديد من الشركات ببساطة لا تدرك هذه الأنواع
من التهديدات، ونظرًا لتعقيد روبوتات الدردشة، حتى داخل المجتمع،
هناك أشياء غير مفهومة تمامًا".
https://lh5.googleusercontent.com/-RATFxDJplv4/Tx2XWvO5MzI/AAAAAAAAARs/xTI2z7Fcdpw/h80/0_61c41_810715ef_M.jpg.png