blog

Intel ra mắt chương trình tăng tốc AI cho phần mềm PC

Hiện tại, phần cứng AI của Intel đang vượt xa phần mềm AI hiện có.

Lý do Intel hợp tác với hơn 100 nhà phát triển phần mềm trên hơn 300 tính năng được tăng tốc AI là một lý do đơn giản: Intel đã giới thiệu các khả năng AI bên trong chip Core Ultra “Meteor Lake” thế hệ thứ 14 dành cho máy tính xách tay và họ cần chúng phải làm như vậy. làm, à, điều gì đó.

Đó không phải là đùa giỡn. AI đã trở thành đồng nghĩa với Bing Chat, Google Bard, Windows Copilot và ChatGPT – tất cả các công cụ AI hoạt động trên đám mây. Chương trình tăng tốc AI mới của Intel, ra mắt trước khi Meter Lake chính thức ra mắt vào ngày 14 tháng 12, sẽ cố gắng thuyết phục người tiêu dùng rằng AI nên chạy cục bộ trên PC của họ.

Đó có thể là một sản phẩm khó bán đối với người tiêu dùng, những người có thể không biết – hoặc không quan tâm – những chức năng này đang được xử lý ở đâu. Tuy nhiên, Intel đã cố gắng hết sức – và đã cố gắng truyền tải thông điệp này tại hội nghị Đổi mới Intel, báo cáo thu nhập, v.v. Intel đang cố gắng khuyến khích các nhà phát triển viết tự nhiên cho công cụ AI của Intel, được gọi là NPU, hoặc sử dụng bộ công cụ dành cho nhà phát triển OpenVINO mà Intel đã hỗ trợ nhưng đã phát hành dưới dạng nguồn mở.

Những nhà phát triển đó không nhất thiết phải công khai kêu gọi tất cả các khả năng AI trong phần mềm của họ. Nhưng Intel đã nêu bật một số nhà phát triển sẽ là: Adobe, Audacity, BlackMagic, BufferZone, CyberLink, DeepRender, MAGIX, Rewind AI, Skylum, Topaz, VideoCom, Webex, Wondershare Filmora, XSplit và Zoom.

Tuy nhiên, chỉ một số nhà phát triển nêu ra các tính năng AI cụ thể. Theo Chri Besenbruch, đồng sáng lập và CEO, trong một tuyên bố, Deep Render, sử dụng AI để nén kích thước tệp, tuyên bố rằng AI sẽ cho phép thuật toán của họ xử lý việc nén video nhiều hơn bình thường gấp 5 lần. Topaz Labs, nơi sử dụng AI để nâng cấp ảnh, cho biết họ có thể sử dụng NPU để tăng tốc các mô hình học sâu của mình.

XSplit, công ty tạo ra ứng dụng Vcam để xóa và thao tác với nền webcam, cũng tuyên bố rằng họ có thể khai thác NPU để có hiệu suất cao hơn. “Bằng cách sử dụng mô hình AI lớn hơn chạy trên Intel NPU, chúng tôi có thể giảm tới 30% độ chính xác của việc xóa nền trên video trực tiếp, đồng thời giảm đáng kể tải tổng thể trên CPU và GPU,” Andreas Hoye, giám đốc điều hành tại XSplit.

Tuy nhiên, nhiều người khác nói rằng họ coi NPU chỉ là một nguồn tài nguyên khác để tận dụng. Trên thực tế, điều đó phù hợp với quan điểm của Intel về chủ đề này: Mặc dù NPU có thể là phương tiện tiết kiệm năng lượng nhất để tăng tốc các tính năng AI cụ thể, nhưng sự kết hợp giữa NPU, GPU và CPU có thể là cách tốt nhất để đạt được mục tiêu đó. nhiệm vụ một cách nhanh nhất có thể.

Và một số nhà phát triển cũng có thể kết hợp xử lý cục bộ cũng như AI dựa trên đám mây. Ví dụ: Generative Fill của Adobe sử dụng đám mây để đề xuất các cảnh mới dựa trên mô tả văn bản mà người dùng nhập nhưng việc áp dụng những cảnh đó vào hình ảnh được thực hiện trên PC. Tuy nhiên, lợi ích tốt nhất của Intel là bạn nên bắt đầu nghĩ đến “Intel Inside” và “AI Inside” trong cùng một câu.

Trả lời

Email của bạn sẽ không được hiển thị công khai. Các trường bắt buộc được đánh dấu *