Tại sao nhắc tới AI PC, người ta nhớ liền tới NVIDIA?!

preview_player
Показать описание
Tại sao khi nới tới NVIDIA, người ta sẽ nhớ đây là công ty đang tạo ra các phần cứng hỗ trợ sử dụng AI hàng đầu thế giới hiện tại? Video này, chúng ta nhìn vào khía cạnh lịch sử và khía cạnh sản phẩm của họ, để hiểu rõ hơn nữa nha!

------------------
💖 Link các sản phẩm của EPIONE mà mình xài:

💖 MÃ GIẢM GIÁ ĐẶC BIỆT CHO TỪNG SẢN PHẨM:
EasyChair 2.0: TAIPHENESC
Smartdesk Pro 2.0: TAIPHENSDP
AliusChair: TAIPHENALC
------------------
Zalo: 0981 870 730 (Mrs. Trang)
Рекомендации по теме
Комментарии
Автор

Nvidia thực sự rất thức thời, họ không chỉ xây dựng phần cứng mà họ còn rất chú trọng vào việc phát triển các công cụ hỗ trợ dev. Chi tiết hơn là kể từ 2012 họ đã bắt đầu thiết kế và mở rộng hệ sinh thái CUDA của mình, ngoài ra năm 2015 họ cũng bắt đầu xây dựng chip riêng cho AI, bộ phận mà sau này xuất hiện trên các con chip GPU dưới dạng Tensor Core năm 2018. Vâng, họ thiết kế ngay từ đầu cho AI đấy chứ không phải chỉ riêng cho các tính năng Ray Tracing như họ quảng cáo đâu! Không biết do may mắn hay sao mà cả RT lẫn AI đều có cốt lõi là các phép toán ma trận (Cộng trừ nhân chia ma trận, tích trong, SVD, ...)

AMD thì mãi đến năm 2018 mới bắt đầu nhảy vào nghiên cứu thiết kế chip cho các tác vụ nhân ma trận phục vụ cho AI, nhưng kể cả như thế thì họ cũng đã chậm hơn Nvidia ít nhất là 3 năm, và lúc họ cho ra sản phẩm đầu tiên năm 2023 thì Nvidia đã thống trị thị trường chip AI được 5 năm. Nhà nhà làm AI, họ mua GPU của Nvidia, họ viết phần mềm chạy trên chip của Nvidia, train bằng chip Nvidia, thậm chí là train xong cũng chạy tốt nhất trên GPU của Nvidia.

Đứng ở vị trí của dev lâu năm, nếu toàn bộ sản phẩm của bạn đã làm ra chạy tốt trên 99% tệp khách hàng của mình, chẳng có lí do gì để mà đổi qua hệ thống khác chỉ để phục vụ nốt 1% còn lại. Đối với dev mới, một bên là hệ sinh thái đã quá phát triển, có cả một hệ thống phần mềm và thư viện hỗ trợ so với các bên khác không có gì hỗ trợ, bạn phải tự thiết kế tất cả, quả thực rất là khó cưỡng lại giải pháp của Nvidia.

Nhưng Nvidia vẫn có những nhược điểm nhất định, đầu tiên là họ tận dụng tối đa sự độc quyền và dominant của họ để bán với giá rất đắt, mà giá đắt là rào cản đối với các SMB hoặc dev độc lập. Tiếp theo CUDA là một khu vườn đóng, điều đó có nghĩa là sản phẩm của bạn phụ thuộc vào Nvidia, nếu Nvidia quyết định không hỗ trợ 1 tính năng nào đó nữa, bạn phải chịu, họ quyết định tăng mức giá sử dụng, bạn cũng phải chịu.

tridungnguyen
Автор

code một dự án rất cực. Một khi người ta đã nhắm đến thì nó rất lâu dài. Cuda nivida hỗ trợ chục năm rồi. dự án người ta lập từ 4-5 năm trước. Một chiếc card hiệu năng gấp 5-10 lần hiệu năng CPU nên người người ta nhắm đến luôn là dùng cuda. Thử tưởng tượng mua 1 card RTX4080 bằng7-8 case Ryzen 9 ko dùng GPU để chạy thì RTX4080 siêu tiết kiệm.
Còn intel với AMD mới nhảy vào thôi. các nhóm phần mềm đó ko phải ngày 1 ngày 2 mà hỗ trợ intel amd ngay đc.

ThanhThanh-itpm
Автор

Nếu tương lai 1 igpu mạnh ngang 1 con vga 4090 thì liệu chúng ta có cần mua vga cho công việc chơi game nữa không anh tài bỏ qua mức giá?

coopvlog
Автор

Đây cũng là key mà Intel đang bị khủng hoảng, mang tên A.I

wearedesigners
Автор

Con rx5500m tạo một ảnh 512×512 hết 4-6 phút lại còn cài đặt khó hơn nữa.

namxem
Автор

Phong Shading là kỹ thuật lập trình đổ bóng của người Việt này. Nvidia có dùng nó trong con cằc đồ họa đầu tiên của hãng không nhỉ

rip
Автор

Mình thấy hiện tại có 1 loại card chuyên dụng thành cho AI xuất hiện trên thị trường mang tên AI accelerator card hay AI accelerator chip nói chung chuyên chạy các tác vụ AI với sức mạnh tính toán AI ngang ngửa với các card đầu bảng của Nvidia trong khi giá thành và điện năng tiêu thụ đều chỉ bằng 1/10 card Nvidia, vậy tại sao thế giới không đẩy mạnh phát triển loại chip này để ứng dụng vào AI mà mình thấy nó vẫn trì trệ và không có động thái gì mới cả?
Mình đã xem các benchmark về sức mạnh của các nhân Tensor AI card Nvidia với tên gọi TensorRT trong benchmark Stable diffusion và ngạc nhiên nó có thể buff sức mạnh của card Nvidia lên 50% thậm chí gấp đôi dựa vào số nhân tensor mà card sở hữu

wwk
Автор

Chào anh
Cho em hỏi về việc sử dụng 2 card, nhưng không phải là 2 cái nvidia mà là 1 con nvidia (3070) và 1 con amd (7800xt). Nếu sử dụng như vậy thì có được không, 1 con chạy tác vụ này, 1 con chạy tác vụ khác không biết có được không?

Kdrx
Автор

E xài m17r5 ryzen 9 card 3080 ti nặng và nóng mong a giúp e 😢

V.anh
Автор

A lên vid về intel có bị mua lại không và vụ quá nhiệt gen 13th và 14th đi a

kkoaaa
Автор

Có con Lap nào dưới 20 triệu có thể sử dụng ổn các ứng dụng AI như Stable Diffusion không các bạn?

soku
Автор

Nvidia giàu vậy bao giờ họ mới quay lại mảng di động nhỉ, chứ để Qualcomm nó độc quyền mãi thỉnh thoảng nó làm chip chiên trứng thì mấy hãng ra chuồng gà 😢 htc, lg, sony là 1 ví dụ

maiyeuvietnamquehuongtoi
Автор

Mọi người ơi tư vấn giúp em với ạ..Nhu cầu em làm văn phòng ạ, nhập liệu văn bản, bền mượt 5.6 năm, em nghĩ nếu lấy lap gaming, làm văn phòng thì nó sẽ bền mượt lâu hơn lap văn phòng ấy ạ, có đúng hok anh chị ơi, em phân vân LOQ 15IAX9 core i5 rtx 3050 và asus vivobook s 16 oled core ultra 5 125H card intel ARC Graphics . Chúc 2 anh chị ngày càng xinh đẹp ạ..!!!

IaoadKoiks