กูเกิลประกาศไว้ในงาน I/O 2017 ว่าจะนำเอนจิน TensorFlow Lite มาสู่ Android Oreo เพื่อให้สามารถประมวลผล deep learning ภายในมือถือได้โดยไม่ต้องส่งข้อมูลออกไปนอกเครื่อง

วันนี้ TensorFlow Lite เปิดให้ทดสอบแบบ developer preview แล้ว มันสามารถนำไปใช้งานได้หลากหลายอุปกรณ์ โดยเริ่มจาก Android, iOS และในอนาคตจะรันบนอุปกรณ์ IoT ได้ด้วย

จุดเด่นของ TensorFlow Lite คือลดขนาดลงจาก TensorFlow ตัวปกติ ไฟล์มีขนาดเล็ก รันได้เร็ว รองรับการใช้ฮาร์ดแวร์ช่วยประมวลผล (ถ้าเครื่องนั้นมีให้ใช้ เช่น Pixel 2 หรือ Huawei Mate 10 ถ้าหากไม่มีจะใช้ซีพียูประมวลผลแทน)

การทำงานของ TensorFlow Lite จะต้องแปลงโมเดลจาก TensorFlow มาเป็นโมเดลเวอร์ชัน Lite (นามสกุล .tflite) เพื่อนำไปรันบนมือถืออีกทีหนึ่ง ตัวเอนจิน TensorFlow Lite สามารถฝังไว้ได้ในแอพ (ในกรณีที่ระบบปฏิบัติการไม่มีให้ใช้ เช่น บน iOS หรือ Android เวอร์ชันเก่าๆ) ในกรณีที่ใช้บน Android 8.1 ขึ้นไป ก็จะสามารถเรียกใช้ Neural Networks API ของระบบปฏิบัติการเพื่อเข้าถึงชิป AI ที่เป็นฮาร์ดแวร์ได้ด้วย

Facebook Comments