TPU đang tăng tốc đào tạo AI

Không chỉ phát triển phần mềm, Google đã bước tiến lĩnh vực phần cứng. Tập đoàn Google đang triển khai kế hoạch TPU tăng tốc đào tạo AI. TPU hỗ trợ các thuật toán học máy, tăng tốc ứng dụng học máy. 
 
Kết quả hình ảnh cho Tensor Processing Unit

>>> Bài viết liên quan:
 

Google đã có một bước tiến mới trong lĩnh vực phần cứng máy học. Tập đoàn công nghệ khổng lồ này đã bắt đầu triển khai phiên bản thứ hai của bộ xử lý Tensor Processing Unit, một chip chuyên dụng để tăng tốc ứng dụng học máy, giám đốc công ty Sundar Pichai tuyên bố hôm thứ Tư.
 
Cloud TPU mới có một số cải tiến so với người tiền nhiệm của nó. Đáng chú ý nhất, nó hỗ trợ các thuật toán học tập máy đào ngoài việc xử lý các kết quả từ các mô hình hiện có. Mỗi chip có thể cung cấp 180 teraflop xử lý cho những nhiệm vụ đó. Google cũng có thể kết nối các chip với nhau trong các bộ được gọi là TPU Pods cho phép thu được lợi nhuận tính toán lớn hơn.
 
Các doanh nghiệp sẽ có thể sử dụng các chip mới thông qua Cloud Cloud của Google, như một phần của gói dịch vụ Cơ sở hạ tầng-as-a-service của Compute Engine, mặc dù công ty vẫn chưa cung cấp chi tiết chính xác về hình thức mà các dịch vụ đó sẽ thực hiện. Ngoài ra, công ty đang tung ra một TensorFlow Research Cloud mới, nó sẽ cung cấp cho các nhà nghiên cứu quyền truy cập miễn phí vào phần cứng đó nếu họ cam kết công khai các kết quả nghiên cứu của mình.
 
Đó là một động thái có tiềm năng đẩy mạnh mạnh mẽ việc học máy. Google cho biết mô hình dịch máy mới nhất của họ mất một ngày để đào tạo 32 GPU hiện đại cao nhất, trong khi một phần tám của một TPU Pod có thể làm được cùng một công việc vào buổi chiều.
 
>>> Có thể bạn quan tâm:
 

Học máy đã trở nên ngày càng quan trọng để cung cấp cho thế hệ kế tiếp các ứng dụng. Đẩy mạnh việc tạo ra các mô hình mới có nghĩa là sẽ dễ dàng hơn cho các công ty như Google thử nghiệm với các cách tiếp cận khác nhau để tìm ra những ứng dụng tốt nhất cho các ứng dụng cụ thể.
 
Phần cứng mới của Google cũng có thể phục vụ để thu hút khách hàng mới vào nền tảng điện toán đám mây vào thời điểm công ty đang cạnh tranh với Microsoft, Amazon và các chuyên gia công nghệ khác. Thông báo Cloud TPU xuất hiện một năm sau khi Google lần đầu tiên tiết lộ Tensor Processing Unit tại hội nghị phát triển I / O của nó. 
 
Các thuật toán lập trình chạy trên các TPU sẽ yêu cầu sử dụng TensorFlow, khuôn khổ học tập máy tính nguồn mở có nguồn gốc từ Google. TensorFlow 1.2 bao gồm các API mới cấp cao giúp dễ dàng thực hiện các hệ thống được xây dựng để chạy trên các CPU và GPU và cũng có thể chạy trên các TPU. Các nhà hoạch định các khuôn khổ học tập máy khác như Caffe có thể làm cho các công cụ của họ hoạt động với TPUs bằng cách thiết kế chúng để gọi các API TensorFlow, theo Jeff Senior của Google.
 
Dean sẽ không giải thích chi tiết về các chỉ số hiệu suất cụ thể của Cloud TPU, vượt xa tiềm năng của các chip này. Một trong những điều mà một bài báo nghiên cứu gần đây của Google chỉ ra là các thuật toán khác nhau thực hiện khác nhau trên TPU ban đầu và nó không rõ ràng nếu Cloud TPU hoạt động theo cách tương tự.
 
Google không phải là công ty duy nhất đầu tư vào phần cứng để giúp học máy. Microsoft đang triển khai các mảng cổng lập trình được lập trình trong các trung tâm dữ liệu để giúp đẩy nhanh các ứng dụng thông minh của nó.
Chúc các bạn thành công!

>>> Tham khảo thêm:

 

Hỗ trợ trực tuyến

kinh doanh 2

kinh doanh 2

0903.22.4949

kinh doanh 1

kinh doanh 1

mayvanphongbongsen@gmail.com

0962.33.4949

go top