طور باحثون في جامعة مينيسوتا الأمريكية شريحة تسمى «CRAM» تقلل من استخدام طاقة الذكاء الاصطناعي بما يصل إلى 2500 مرة من خلال معالجة البيانات داخل الذاكرة، ما يعد بإحراز تقدم كبير في كفاءة الذكاء الاصطناعي.
ومع تزايد الطلب على التطبيقات الذكية، يبحث الباحثون عن طرق لإنشاء عملية أكثر كفاءة في استخدام الطاقة، مع الحفاظ على الأداء العالي والتكاليف المنخفضة، بشكل عام، تقوم عمليات الذكاء الاصطناعي أو الآلة بنقل البيانات، حيث تتم معالجة المعلومات داخل النظام والذاكرة، ويتم تخزين البيانات، ما يستهلك كمية كبيرة من الطاقة.
وقال يانغ لف، من قسم الهندسة الكهربائية والحاسبات بالجامعة: «الشريحة يمكنها معالجة البيانات بالكامل بطاقة أقل».
وأصدرت وكالة الطاقة الدولية توقعاتها لاستخدام الطاقة العالمي في مارس/ آذار 2024، وتوقعت أن يتضاعف استهلاك الطاقة لأغراض الذكاء الاصطناعي من 460 تيراواط / ساعة إلى 1000، عام 2026، وهذا يعادل استهلاك الكهرباء في دولة اليابان بأكملها.