الأب الروحي للذكاء الاصطناعي يغادر جوجل لهذه الأسباب!
أعلن أحد أبرز رواد الذكاء الاصطناعي والذي يحمل لقب الأب الروحي للذكاء الاصطناعي بمغادرة منصبه في جوجل كنائب رئيس الشركة وسط تخوفات من مستقبل التكنولوجيا الجديدة.
حيث ” جيفري هينتون” الملقب بـ “الأب الروحي للذكاء الاصطناعي”، لصحيفة نيويورك تايمز إنه استقال من منصب نائب رئيس جوجل وزميل الهندسة في أبريل، للتحذير بحرية من المخاطر المرتبطة بالتكنولوجيا الجديدة.
وصرح “هينتون” أن جوجل بدأت تتخلى عن قيودها السابقة على الذكاء الاصطناعي للمنافسة مع ChatGPT و Bing Chat والنماذج المماثلة، مما يفتح الباب أمام مشاكل أخلاقية متعددة.
مخاوف الأب الروحي للذكاء الاصطناعي من مستقبل التكنولوجيا
يحمل “هينتون” مخاوف عديدة من التطور السريع للذكاء الاصطناعي وسط انجراف الشركات وراء تطويره دون وضع قيود كافية عليه، ولعل أبرز ما يخشاه “هينتون” في المستقبل القريب هو انتشار المعلومات الخاطئة والاستغناء عن الموظفين واستبدالهم بالذكاء الاصطناعي.
على المدى القريب، يشعر هينتون بالقلق من أن يؤدي الذكاء الاصطناعي التوليدي إلى موجة من المعلومات المضللة. يقول “قد لا تكون قادرًا على معرفة ما هو صحيح بعد الآن”.
وبالفعل رأينا بوتات الذكاء الاصطناعي تقدم معلومات خاطئة في صورة مقنعة وتبدو كأنها معلومة صحيحة، الأمر الذي قد يؤدي في النهاية لتزييف الحقائق ونشر المعلومات المغلوطة.
وأيضاً، يخشى الأب الروحي للذكاء الاصطناعي، من تدخل التكنولوجيا في مجال الأعمال، ويرى أنها قد لا تلغي “العمل الشاق” فحسب، بل ستحل محل بعض الوظائف بشكل كامل.
أيضاً، هناك تخوفات من تطوير أسلحة معتمدة على الذكاء الاصطناعي قد تصبح عرضة للخروج عن السيطرة في أي وقت وهو أمر ربما لن يحدث بنفس طريقة الأفلام الأمريكية، لكن هناك بعض الحالات التي خرج الذكاء الاصطناعي فيها عن السيطرة بالفعل بسبب خلل في البرمجة أو فهم خاطئ للمدخلات.
أخيراً، يقول هينتون إن موقفه بدأ يتغير العام الماضي، عندما بدأت جوجل و OpenAI وغيرهما في إنشاء أنظمة ذكاء اصطناعي يعتقد أنها تتفوق أحيانًا على الذكاء البشري. لقد تطور الذكاء الاصطناعي بسرعة فائقة في السنوات الخمس الماضية فقط ، ويرى الباحث أن ما يمكن أن يحدث في السنوات الخمس المقبلة “مخيف”.
لا شك أن التطور السريع للذكاء الاصطناعي مؤخراً سيتسبب في حدوث أزمات وعواقب يصعب توقعها إذا لم يكن هناك ضوابط وقوانين لتطوير هذه الصناعة.
لذلك وقع عدد من الأكاديميين البارزين وشخصيات التكنولوجيا البارزة، بما في ذلك Elon Musk و Steve Wozniak ، مؤخرًا خطابًا مفتوحًا يدعو إلى التوقف لمدة ستة أشهر حول تطوير الذكاء الاصطناعي لمعالجة المشكلات الأخلاقية والمتعلقة بالسلامة.