بيل غيتس: الذكاء الاصطناعي سيغير حياتنا خلال 5 سنوات


توقع الملياردير الأميركي بيل غيتس أن يحدث الذكاء الاصطناعي تحولا كبيرا في حياتنا في غضون السنوات الخمس المقبلة.

    يمكنكم الاشتراك في نشرتنا البريدية للتوصل بملخصات يومية حول المقالات المنشورة على الموقع

    الاشتراك في النشرة البريدية

    وأثار ظهور الذكاء الاصطناعي مخاوف من أن التكنولوجيا ستقضي على ملايين الوظائف حول العالم.

    وقد أفاد صندوق النقد الدولي هذا الأسبوع بأن نحو 40 في المائة من الوظائف حول العالم قد تتأثر بهذه التكنولوجيا.

    ولا يختلف غيتس بالضرورة مع هذه الفكرة، لكنه يعتقد أن التاريخ يظهر أن كل تطور تكنولوجي جديد “يبدأ بالخوف وينتهي بخلق فرص جديدة”.

    وفي مقابلة مع شبكة “سي إن إن” الأميركية، توقع مؤسس مجموعة “مايكروسوفت” أن يجعل الذكاء الاصطناعي حياة الجميع أسهل، لافتا إلى أن أكثر ما يميز هذه التكنولوجيا هو عدم وجود حاجة إلى “أجهزة جديدة” لاستخدامها، حيث يمكن الوصول إليها بسهولة عبر “الهاتف أو الكومبيوتر الشخصي المتصلين بالإنترنت”.

    وأشار غيتس إلى أن دمج الذكاء الاصطناعي في قطاعي التعليم والطب، على وجه الخصوص، سيكون “رائعاً”، مؤكدا أن “التكنولوجيا قد تساعد الأطباء في إنجاز أعمالهم الورقية، وهو جزء من الوظيفة التي لا يحبونها”.

    وأكد الملياردير الأميركي أن التحسينات التي تم إدخالها على روبوت الدردشة “تشات جي بي تي” كانت “مثيرة”، إذ يمكنه “القراءة والكتابة بشكل أساسي” وبالتالي “قد يقدم النصائح الصحية، ويساعد في كتابة التعليمات البرمجية، وقد يجري مكالمات الدعم الفني”.

    ولدى “مايكروسوفت”، شراكة بمليارات الدولارات مع شركة “أوبن إيه آي” الأميركية المطورة لـ “تشات جي بي تي”.

    - إشهار -

    وقال غيتس لـ”سي إن إن” إن هدف مؤسسته الخيرية “بيل وميليندا غيتس” هو التأكد من استفادة الدول الفقيرة من التكنولوجيا مؤكدا أن «النقص في الأطباء والمعلمين أكثر حدة في أفريقيا منه في الغرب».

    يأتي ذلك بعد أن حذرت دراسةٌ جديدةٌ نشرتها صحيفة “الإندبندنت” البريطانية بالأمس من إمكانية تدريب نماذج الذكاء الاصطناعي المتقدمة على الكذب على البشر وخداعهم بكل سهولة.

    واختبر فريق الدراسة التابع لشركة “Anthropic” الناشئة للذكاء الاصطناعي ما إذا كانت روبوتات الدردشة المتطورة مثل “تشات جي بي تي” يمكن أن تتعلم الكذب من أجل خداع الناس.

    ووجد الباحثون أن هذه الروبوتات لا تستطيع تعلم الكذب فحسب، بل من المستحيل إعادة تدريبها بعد ذلك على قول الحقيقة والمعلومات الصحيحة باستخدام تدابير السلامة الخاصة بالذكاء الاصطناعي المتاحة في الوقت الحالي.

    وتحاول الحكومات في جميع أنحاء العالم إنشاء لوائح تنظيمية، أو قوانين للذكاء الاصطناعي، تعمل على تعزيز السلامة والاستخدام العادل، مع الاستمرار في تشجيع الابتكار.

    المصدر: الشرق الأوسط

    أعجبك المقال؟ شاركه على منصتك المفضلة..
    قد يعجبك ايضا
    اترك رد

    لن يتم نشر عنوان بريدك الإلكتروني.

    يستخدم هذا الموقع ملفات تعريف الارتباط لتحسين تجربتك. سنفترض أنك موافق على ذلك ، ولكن يمكنك إلغاء الاشتراك إذا كنت ترغب في ذلك. قبول قراءة المزيد