Tin đồn: Chip đồ hoạ 7nm Ampere của NVIDIA sẽ có hiệu năng gần gấp đôi ?

06/02/2020, 11:50
by adcomputer 06/02/2020, 11:50

Tin đồn: Chip đồ hoạ 7nm Ampere của NVIDIA sẽ có hiệu năng gần gấp đôi ?

Theo như thông tin mới đây từ tạp chí Taipei Times và trang tin Tomshardware, những con chip đồ họa thế hệ tiếp theo của NVIDIA mang tên Ampere sẽ mạnh hơn và có hiệu năng tốt hơn rất nhiều so với thế hệ GPU hiện tại, nhờ việc chuyển sang sử dụng kiến trúc 7nm cho chip.

Trước đó, cũng đã có nhiều thông tin cho rằng những con chip đồ họa Ampere của NVIDIA sẽ chính thức ra mắt vào nửa cuối năm 2020.

Theo lời CEO của NVIDIA – ông Jensen Huang – trong một cuộc phỏng vấn gần đây, chip đồ họa 7nm của họ sẽ do TSMC chịu trách nhiệm sản xuất chính.

 

Ampere

Nếu những thông tin của tạp chí Taipei Times là đáng tin cậy, thì thế hệ chip Ampere của NVIDIA sẽ mang tới sức mạnh hơn khoảng 50% trong khi lượng điện năng tiêu thụ chỉ giảm còn một nửa. Điều này cũng đồng nghĩa với việc chúng ta có thể có một chiếc card đồ họa với thông số tiêu thụ điện thấp hơn RTX 2060 (125-150W), nhưng lại có sức mạnh vượt trội hơn hẳn chiếc 2080 Ti.

Bên cạnh đó, chip Ampere được cho là sẽ mang tới công nghệ Ray Tracing tốt hơn nhiều so với người tiền nhiệm Turing. Điều này cũng khá dễ hiểu khi Turing là thế hệ chip đồ họa đầu tiên được trang bị Ray Tracing và vẫn còn nhiều điểm chưa được tối ưu.

 

Ampere

Về mặt hiệu năng, bản thân những con chip đồ họa Turing trên kiến trúc 12nm FinFET đã đạt được hiệu năng tốt hơn hẳn so với những người tiền nhiệm của mình, do vậy khi NVIDIA tiếp tục nâng cấp lên kiến trúc 7nm, hiệu năng của những con chip Ampere sẽ còn tốt hơn nữa. Vậy nên việc chip Ampere chỉ tiêu thụ điện năng bằng một nửa Turing cũng hoàn toàn có thể kỳ vọng được.

Nhiều khả năng NVIDIA sẽ bật mí một chút về những con chip đồ họa mới của họ tại sự kiến CES 2020 diễn ra đầu tuần sau, trước khi chính thức giới thiệu Ampere tại sự kiện GTC 2020 hoặc Computex 2020. Hãy cùng chờ xem.

 

Trả lời

Email của bạn sẽ không được hiển thị công khai.

.
.
.
.