ML Kit สำหรับ Firebase

ใช้แมชชีนเลิร์นนิงในแอปเพื่อแก้ไขปัญหาในชีวิตจริง

ML Kit เป็น SDK อุปกรณ์เคลื่อนที่ที่นำความเชี่ยวชาญด้านแมชชีนเลิร์นนิงของ Google มาสู่แอป Android และ iOS ในแพ็กเกจที่ทรงพลังแต่ใช้งานง่าย ไม่ว่าคุณจะเป็นมือใหม่หรือ���ีประสบการณ์ด้านแมชชีนเลิร์นนิง ก็ติดตั้งใช้งานฟังก์ชันที่ต้องการได้ในโค้ดเพียงไม่กี่บรรทัด คุณไม่จำเป็นต้องมีความรู้เชิงลึกเกี่ยวกับโครงข่ายประสาทหรือการเพิ่มประสิทธิภาพโมเดลเพื่อเริ่มต้นใช้งาน ในทางกลับกัน หากคุณเป็นนักพัฒนาซอฟต์แวร์ ML ที่มีประสบการณ์ ML Kit จะมี API ที่ใช้งานสะดวกเพื่อช่วยให้คุณใช้โมเดล TensorFlow Lite ที่กำหนดเองในแอปบนอุปกรณ์เคลื่อนที่

ความสามารถที่สำคัญ

พร้อมสำหรับการใช้งานจริงสำหรับ Use Case ทั่วไป

ML Kit มาพร้อมกับชุด API ที่พร้อมใช้งานสำหรับกรณีการใช้งานทั่วไปในอุปกรณ์เคลื่อนที่ เช่น การจดจำข้อความ การตรวจจับใบหน้า การระบุจุดสังเกต การสแกนบาร์โค้ด การติดป้ายกำกับรูปภาพ และการระบุภาษาของข้อความ เพียงส่งผ่านข้อมูลไปยังคลัง ML Kit คุณจะได้รับข้อมูลที่คุณต้องการ

ในอุปกรณ์หรือในระบบคลาวด์

API ที่เลือกของ ML Kit จะทำงานบนอุปกรณ์หรือในระบบคลาวด์ API ในอุปกรณ์สามารถประมวลผลข้อมูลของคุณได้อย่างรวดเร็วและทำงานได้แม้ไม่มีการเชื่อมต่อเครือข่าย ในทางกลับกัน API ในระบบคลาวด์ของเราใช้ประโยชน์จากขุมพลังของเทคโนโลยีแมชชีนเลิร์นนิงของ Google Cloud เพื่อเพิ่มความแม่นยำในระดับที่สูงขึ้น

ทำให้โมเดลที่กำหนดเองใช้งานได้

หาก API ของ ML Kit ไม่ครอบคลุม Use Case ของคุณ คุณก็นำโมเดล TensorFlow Lite ที่มีอยู่มาใช้ได้ทุกเมื่อ เพียงอัปโหลดโมเดลไปยัง Firebase และเราจะดูแลโฮสติ้��และนำไปใช้กับแอปของคุณ โดย ML Kit จะทำหน้าที่เป็นเลเยอร์ API ให้กับโมเดลที่กำหนดเองเพื่อให้เรียกใช้และใช้งานได้ง่ายขึ้น

ทำงานอย่างไร

ML Kit ทำให้การใช้เทคนิค ML ในแอปเป็นเรื่องง่ายด้วยการนำเทคโนโลยี ML ของ Google เช่น Google Cloud Vision API, TensorFlow Lite และ Android Neural Networks API มาไว้ด้วยกันใน SDK เดียว ไม่ว่าคุณจะต้องการขุมพลังการประมวลผลในระบบคลาวด์ ความสามารถแบบเรียลไทม์ของโมเดลบนอุปกรณ์ที่เพิ่มประสิทธิภาพสำหรับอุปกรณ์เคลื่อนที่ หรือความยืดหยุ่นของโมเดล TensorFlow Lite ที่กำหนดเอง ML Kit ก็ทำให้ทั้งหมดนี้เป็นไปได้ด้วยโค้ดเพียงไม่กี่บรรทัด

มีฟีเจอร์อะไรบ้างในอุปกรณ์หรือในระบบคลาวด์

ฟีเจอร์ บนอุปกรณ์ Cloud
การจดจำข้อความ
การตรวจจับใบหน้า
การสแกนบาร์โค้ด
การติดป้ายกำกับรูปภาพ
การตรวจจับและติดตามวัตถุ
การจดจำจุดสังเกต
การระบุภาษา
คำแปล
ช่วยตอบ
การอนุมานโมเดล AutoML
การอนุมานรูปแบบที่กําหนดเอง

เส้นทางการใช้งาน

ผสานรวม SDK รวม SDK อย่างรวดเร็วโดยใช้ Gradle หรือ CocoaPods
เตรียมข้อมูลอินพุต เช่น หากคุณกำลังใช้ฟีเจอร์การมองเห็น ให้จับภาพจากกล้องแล้วสร้างข้อมูลเมตาที่จำเป็น เช่น การหมุนรูปภาพ หรือแจ้งให้ผู้ใช้เลือกรูปภาพจากแกลเลอรี
ใช้โมเดล ML กับข้อมูลของคุณ การนำโมเดล ML ไปใช้กับข้อมูลจะเป็นการสร้างข้อมูลเชิงลึก เช่น สถานะทางอารมณ์ของใบหน้าที่ตรวจพบหรือวัตถุและแนวคิดที่จำได้ในรูปภาพ โดยขึ้นอยู่กับฟีเจอร์ที่คุณใช้ ใช้ข้อมูลเชิงลึกเหล่านี้เพื่อขับเคลื่อนฟีเจอร์ต่างๆ ในแอป เช่น การแต่งรูปภาพ การสร้างข้อมูลเมตาอัตโนมัติ หรืออะไรก็ตามที่นึกออก

ขั้นตอนถัดไป