ปัญญาประดิษฐ์ในการประมวลผลภาพกล้องจุลทรรศน์

ปัญญาประดิษฐ์กำลังปฏิวัติการประมวลผลภาพกล้องจุลทรรศน์ด้วยความสามารถทรงพลัง เช่น การแบ่งส่วนภาพอย่างแม่นยำ การลดสัญญาณรบกวน ความละเอียดสูง และการเก็บภาพอัตโนมัติ บทความนี้เน้นเครื่องมือ AI ที่สำคัญและแนวโน้มที่เกิดขึ้นใหม่ในการวิจัยทางวิทยาศาสตร์

เทคนิคปัญญาประดิษฐ์กำลังปฏิวัติวงการกล้องจุลทรรศน์ด้วยการ เพิ่มประสิทธิภาพการเก็บภาพ และ วิเคราะห์อัตโนมัติ ในกล้องจุลทรรศน์อัจฉริยะสมัยใหม่ โมดูล AI สามารถปรับพารามิเตอร์การถ่ายภาพแบบเรียลไทม์ (เช่น โฟกัส, การส่องสว่าง) เพื่อลดการซีดจางของแสงและเพิ่มสัญญาณ ในขณะเดียวกัน อัลกอริทึมการเรียนรู้เชิงลึกสามารถกรองข้อมูลภาพที่ซับซ้อนเพื่อดึงข้อมูลเชิงลึกทางชีวภาพที่ซ่อนอยู่และเชื่อมโยงภาพกับข้อมูลอื่น ๆ (เช่น จีโนมิกส์)

ข้อมูลเชิงลึกสำคัญ: AI ช่วยให้นักวิจัยมองเห็นมากขึ้นในกล้องจุลทรรศน์โดย เร่งกระบวนการทำงาน, เพิ่มความแม่นยำ และ ค้นหารูปแบบละเอียดอ่อน ที่ตาเปล่ามองไม่เห็น

วิธีการ AI: การเรียนรู้ของเครื่องกับการเรียนรู้เชิงลึก

วิธีการ AI มีตั้งแต่ การเรียนรู้ของเครื่อง (ML) แบบดั้งเดิมจนถึง การเรียนรู้เชิงลึก (DL) สมัยใหม่ แต่ละวิธีมีจุดแข็งและข้อจำกัดที่แตกต่างกัน:

การเรียนรู้ของเครื่องแบบดั้งเดิม

คุณลักษณะที่สร้างด้วยมือ

  • นักวิจัยสร้างคุณลักษณะภาพด้วยมือ (ขอบ, ลวดลาย, รูปร่าง)
  • ป้อนคุณลักษณะให้กับตัวจำแนก (ต้นไม้ตัดสินใจ, SVM)
  • ฝึกได้เร็ว
  • ทำงานยากกับภาพที่ซับซ้อนหรือมีสัญญาณรบกวน
การเรียนรู้เชิงลึก

การเรียนรู้คุณลักษณะอัตโนมัติ

  • โครงข่ายประสาทเทียมหลายชั้น (CNNs) เรียนรู้คุณลักษณะโดยอัตโนมัติ
  • เรียนรู้แบบครบวงจรจากพิกเซลดิบ
  • ทนทานต่อความแปรปรวนมากขึ้น
  • จับลวดลายและโครงสร้างซับซ้อนได้อย่างน่าเชื่อถือ

การทำงานของ CNNs: โครงข่ายประสาทเทียมแบบคอนโวลูชันใช้ฟิลเตอร์ต่อเนื่องกับภาพกล้องจุลทรรศน์ เรียนรู้การตรวจจับรูปแบบง่าย ๆ (ขอบ) ในชั้นแรก และโครงสร้างซับซ้อน (รูปร่างเซลล์, ลวดลาย) ในชั้นลึก การเรียนรู้อย่างเป็นลำดับชั้นนี้ทำให้ DL มีความทนทานสูงแม้ความเข้มของภาพจะแตกต่างกันมาก

การเปรียบเทียบภาพ: กระบวนการ ML กับ DL

กระบวนการเรียนรู้ของเครื่องแบบดั้งเดิม
กระบวนการ ML แบบดั้งเดิม: คุณลักษณะที่สร้างด้วยมือจากภาพกล้องจุลทรรศน์เรืองแสงประมวลผลโดยตัวจำแนก
โครงข่ายประสาทเทียมเชิงลึกสำหรับกล้องจุลทรรศน์
การเรียนรู้เชิงลึกใช้โครงข่ายประสาทเทียมแบบคอนโวลูชัน (CNNs) วิเคราะห์ภาพกล้องจุลทรรศน์

การประยุกต์ใช้ AI สำคัญในกล้องจุลทรรศน์

AI ถูกฝังอยู่ในงานประมวลผลภาพหลายขั้นตอนในกระบวนการกล้องจุลทรรศน์:

การแบ่งส่วนภาพ

แบ่งภาพออกเป็นส่วนต่าง ๆ (เช่น ระบุเซลล์หรือแกนเซลล์แต่ละอัน) โครงข่ายลึกอย่าง U-Net ทำงานนี้ได้ดีเยี่ยม

  • การแบ่งส่วนเชิงความหมาย: ป้ายกำกับประเภทต่อพิกเซล
  • การแบ่งส่วนเชิงวัตถุ: แยกวัตถุแต่ละชิ้น
  • แม่นยำสูงในภาพที่แออัดหรือมืด
  • โมเดลพื้นฐานด้านภาพ (เช่น μSAM) ปรับใช้กับกล้องจุลทรรศน์แล้ว

การจำแนกวัตถุ

หลังจากแบ่งส่วน AI จะจำแนกวัตถุแต่ละชิ้นด้วยความแม่นยำสูง

  • ระบุชนิดเซลล์
  • กำหนดระยะการแบ่งเซลล์
  • ตรวจจับตัวบ่งชี้ทางพยาธิวิทยา
  • แยกแยะลักษณะย่อยที่ยากต่อการวัดด้วยมือ

การติดตาม

ในกล้องจุลทรรศน์แบบจับภาพต่อเนื่อง AI ติดตามเซลล์หรืออนุภาคข้ามเฟรมด้วยความแม่นยำสูงสุด

  • การเรียนรู้เชิงลึกช่วยเพิ่มความแม่นยำในการติดตามอย่างมาก
  • ช่วยวิเคราะห์เซลล์ที่เคลื่อนไหวได้อย่างน่าเชื่อถือ
  • จับกระบวนการชีวภาพที่เปลี่ยนแปลงได้

การลดสัญญาณรบกวนและความละเอียดสูง

โมเดล AI ปรับปรุงคุณภาพภาพโดยการกำจัดสัญญาณรบกวนและความเบลอ

  • โมเดลเชิงฟิสิกส์เรียนรู้ระบบแสงของกล้องจุลทรรศน์
  • สร้างภาพที่คมชัดและไม่มีสิ่งผิดปกติ
  • ความละเอียดสูงขึ้นพร้อมลดสิ่งผิดปกติเมื่อเทียบกับวิธีดั้งเดิม

การเก็บภาพอัตโนมัติ

AI ควบคุมกล้องจุลทรรศน์แบบเรียลไทม์

  • วิเคราะห์ภาพสดเพื่อการตัดสินใจอย่างชาญฉลาด
  • ปรับโฟกัสและสแกนพื้นที่ที่สนใจโดยอัตโนมัติ
  • ลดความเป็นพิษจากแสงและประหยัดเวลา
  • รองรับการทดลองถ่ายภาพแบบความเร็วสูงและปรับตัวได้
ข้อได้เปรียบด้านประสิทธิภาพ: ด้วยข้อมูลฝึกอบรมที่เพียงพอ CNNs และโมเดลที่เกี่ยวข้องมักทำงานได้ดีกว่าวิธีดั้งเดิม เช่น DL สามารถแบ่งส่วนเซลล์บนพื้นหลังที่มีสัญญาณรบกวนได้แม่นยำกว่าการปรับแต่งด้วยมือ
การประยุกต์ใช้ AI สำคัญในกล้องจุลทรรศน์
ภาพรวมการประยุกต์ใช้ AI ในกระบวนการกล้องจุลทรรศน์: ตั้งแต่การเก็บภาพจนถึงการวิเคราะห์

เครื่องมือ AI ยอดนิยมในการประมวลผลภาพกล้องจุลทรรศน์

<ITEM_DESCRIPTION>ระบบนิเวศของเครื่องมือที่หลากหลายสนับสนุน AI ในการใช้กล้องจุลทรรศน์ นักวิจัยได้พัฒนาซอฟต์แวร์ทั้งแบบทั่วไปและเฉพาะด้าน ซึ่งหลายรายการเป็นโอเพนซอร์ส:</ITEM_DESCRIPTION>

Icon

Cellpose

เครื่องมือแบ่งเซลล์แบบทั่วไป
ผู้พัฒนา Carsen Stringer และ Marius Pachitariu (กลุ่มวิจัย MouseLand)
แพลตฟอร์มที่รองรับ
  • เดสก์ท็อป Windows
  • เดสก์ท็อป macOS
  • เดสก์ท็อป Linux

ต้องใช้ Python (ติดตั้งผ่าน pip/conda) GUI ใช้งานได้เฉพาะบนเดสก์ท็อปเท่านั้น

การสนับสนุนภาษา เอกสารภาษาอังกฤษ; ใช้กันอย่างแพร่หลายในห้องปฏิบัติการวิจัยทั่วโลก
รูปแบบการคิดราคา ฟรีและโอเพนซอร์ส ภายใต้สัญญาอนุญาต BSD-3-Clause

ภาพรวม

Cellpose คือเครื่องมือแบ่งเซลล์ขั้นสูงที่ใช้การเรียนรู้เชิงลึก ออกแบบมาสำหรับภาพกล้องจุลทรรศน์ ในฐานะอัลกอริทึมทั่วไป สามารถแบ่งเซลล์ชนิดต่างๆ (นิวเคลียส, ไซโตพลาสซึม ฯลฯ) ได้อย่างแม่นยำในโหมดการถ่ายภาพที่หลากหลายโดยไม่ต้องฝึกสอนโมเดลใหม่ ด้วยความสามารถในการปรับแต่งโดยมนุษย์ในวงจร นักวิจัยสามารถปรับผลลัพธ์ ปรับโมเดลให้เข้ากับข้อมูลของตน และใช้ระบบกับงานภาพ 2 มิติและ 3 มิติได้

คุณสมบัติหลัก

โมเดลทั่วไปที่ผ่านการฝึกสอนล่วงหน้า

ใช้งานได้ทันทีสำหรับเซลล์หลายชนิด, สีย้อม และโหมดการถ่ายภาพโดยไม่ต้องฝึกสอนเฉพาะ

การแบ่งเซลล์ 2D และ 3D

รองรับสแตก 3 มิติเต็มรูปแบบโดยใช้วิธี "2.5D" ที่นำโมเดล 2D มาใช้กับข้อมูลปริมาตร

การฝึกสอนโดยมนุษย์ในวงจร

แก้ไขผลการแบ่งเซลล์ด้วยมือและฝึกสอนโมเดลใหม่บนข้อมูลเฉพาะของคุณเพื่อความแม่นยำที่ดีขึ้น

หลายอินเทอร์เฟซ

เข้าถึงผ่าน Python API, คำสั่ง CLI หรืออินเทอร์เฟซกราฟิกสำหรับเวิร์กโฟลว์ที่ยืดหยุ่น

การฟื้นฟูภาพ (Cellpose 3)

ความสามารถในการลดเสียงรบกวน, ลบเบลอ และเพิ่มความละเอียดภาพเพื่อปรับปรุงคุณภาพก่อนแบ่งเซลล์

ดาวน์โหลดหรือเข้าถึง

พื้นฐานทางเทคนิค

Cellpose ถูกนำเสนอในงานวิจัยสำคัญโดย Stringer, Wang, Michaelos และ Pachitariu โดยฝึกสอนบนชุดข้อมูลขนาดใหญ่และหลากหลายที่มีวัตถุแบ่งเซลล์มากกว่า 70,000 ชิ้น ความหลากหลายนี้ช่วยให้โมเดลสามารถทั่วไปได้กับรูปร่าง ขนาดเซลล์ และการตั้งค่ากล้องจุลทรรศน์ต่างๆ ลดความจำเป็นในการฝึกสอนเฉพาะในหลายกรณี สำหรับข้อมูล 3 มิติ Cellpose ใช้วิธี "2.5D" ที่นำโมเดล 2D มาใช้ซ้ำโดยไม่ต้องใช้ข้อมูลฝึกสอนที่ติดป้าย 3 มิติเต็มรูปแบบ แต่ยังคงให้ผลการแบ่งเซลล์แบบปริมาตร Cellpose 2.0 เพิ่มความสามารถ ฝึกสอนโดยมนุษย์ในวงจร ช่วยให้ผู้ใช้แก้ไขผลลัพธ์ด้วยมือและฝึกสอนใหม่บนภาพของตนเพื่อประสิทธิภาพที่ดีขึ้นในชุดข้อมูลเฉพาะ

การติดตั้งและตั้งค่า

1
สร้างสภาพแวดล้อม Python

ตั้งค่าสภาพแวดล้อม Python โดยใช้ conda:

คำสั่ง Conda
conda create -n cellpose python=3.10
2
ติดตั้ง Cellpose

เปิดใช้งานสภาพแวดล้อมและติดตั้ง Cellpose:

ตัวเลือกการติดตั้ง
# For GUI support
pip install cellpose[gui]

# For minimal setup (API/CLI only)
pip install cellpose

เริ่มต้นใช้งาน

โหมด GUI
  1. เปิด GUI โดยรันคำสั่ง: python -m cellpose
  2. ลากและวางไฟล์ภาพ (.tif, .png เป็นต้น) ลงในอินเทอร์เฟซ
  3. เลือกประเภทโมเดล (เช่น "cyto" สำหรับไซโตพลาสซึมหรือ "nuclei" สำหรับนิวเคลียส)
  4. ตั้งค่าขนาดเส้นผ่านศูนย์กลางเซลล์โดยประมาณหรือให้ Cellpose ปรับอัตโนมัติ
  5. คลิกเพื่อเริ่มแบ่งเซลล์และดูผลลัพธ์
โหมด Python API
ตัวอย่าง Python
from cellpose import models

# Load model
model = models.Cellpose(model_type='cyto')

# Segment images
masks, flows = model.eval(images, diameter=30)
ปรับแต่งและฝึกสอนใหม่
  1. หลังจากสร้างหน้ากากแล้ว แก้ไขการแบ่งเซลล์ใน GUI โดยการรวมหรือ ลบหน้ากากด้วยมือ
  2. ใช้ฟังก์ชันฝึกสอนในตัวเพื่อฝึกสอนใหม่บนตัวอย่างที่แก้ไขแล้ว
  3. เพิ่มประสิทธิภาพโมเดลสำหรับชุดข้อมูลเฉพาะของคุณ
ประมวลผลข้อมูล 3D
  1. โหลดไฟล์ TIFF หลายชั้นหรือสแตกปริมาตร
  2. ใช้แฟล็ก --Zstack ใน GUI หรือ API เพื่อประมวลผลแบบ 3D
  3. ปรับแต่งการไหล 3D ด้วยการทำให้เรียบหรือพารามิเตอร์เฉพาะเพื่อการแบ่งเซลล์ที่ดีขึ้น

ข้อจำกัดและข้อควรพิจารณา

ข้อกำหนดฮาร์ดแวร์: สำหรับภาพขนาดใหญ่หรือชุดข้อมูล 3D แนะนำให้มี RAM อย่างน้อย 8 GB; ข้อมูลความละเอียดสูงหรือ 3D อาจต้องการ 16–32 GB แนะนำให้ใช้ GPU เพื่อการประมวลผลและฝึกสอนที่รวดเร็วขึ้น แม้จะสามารถใช้ CPU อย่างเดียวได้แต่ประสิทธิภาพจะลดลง
  • ข้อแลกเปลี่ยนของความทั่วไปของโมเดล: แม้โมเดลทั่วไปจะใช้งานได้กว้าง แต่รูปร่างเซลล์หรือสภาพการถ่ายภาพที่ผิดปกติสูงอาจต้องฝึกสอนใหม่
  • ความพยายามในการติดป้าย: การฝึกสอนโดยมนุษย์ในวงจรต้องแก้ไขด้วยมือ ซึ่งอาจใช้เวลานานสำหรับชุดข้อมูลขนาดใหญ่
  • ความซับซ้อนในการติดตั้ง: การติดตั้ง GUI อาจต้องใช้คำสั่งในบรรทัดคำสั่ง, สภาพแวดล้อม conda และการจัดการไลบรารี Python — ไม่ง่ายสำหรับผู้ที่ไม่ใช่นักโปรแกรมเมอร์
  • ใช้งานเฉพาะเดสก์ท็อป: Cellpose ออกแบบมาเพื่อใช้งานบนเดสก์ท็อป ไม่มีแอปพลิเคชันบน Android หรือ iOS

คำถามที่พบบ่อย

ฉันจำเป็นต้องติดป้ายข้อมูลของตัวเองเพื่อใช้ Cellpose หรือไม่?

ไม่จำเป็น — Cellpose มีโมเดลทั่วไปที่ผ่านการฝึกสอนล่วงหน้าซึ่งมักใช้งานได้ดีโดยไม่ต้องฝึกสอนใหม่ อย่างไรก็ตาม เพื่อผลลัพธ์ที่ดีที่สุดกับข้อมูลพิเศษหรือผิดปกติ คุณสามารถติดป้ายและฝึกสอนใหม่โดยใช้ฟีเจอร์มนุษย์ในวงจรได้

Cellpose รองรับภาพกล้องจุลทรรศน์ 3D หรือไม่?

รองรับ — โดยใช้โมเดล 2D ซ้ำในรูปแบบ "2.5D" และคุณสามารถประมวลผลสแตกปริมาตรผ่าน GUI หรือ API ได้

Cellpose ต้องการ GPU หรือไม่?

แนะนำให้ใช้ GPU เพื่อการประมวลผลและฝึกสอนที่รวดเร็ว โดยเฉพาะกับชุดข้อมูลขนาดใหญ่หรือ 3D แต่ Cellpose สามารถทำงานบนเครื่องที่มี CPU อย่างเดียวได้แม้จะช้ากว่า

ฉันจะปรับ Cellpose ให้เหมาะกับขนาดเซลล์ที่แตกต่างกันได้อย่างไร?

ใน GUI ให้ตั้งค่าขนาดเส้นผ่านศูนย์กลางเซลล์โดยประมาณด้วยมือ หรือให้ Cellpose ปรับอัตโนมัติ คุณสามารถปรับแต่งผลลัพธ์และฝึกสอนใหม่หากการแบ่งเซลล์ยังไม่เหมาะสม

ฉันสามารถฟื้นฟูหรือทำความสะอาดภาพกล้องจุลทรรศน์ที่มีเสียงรบก่อนได้ก่อนแบ่งเซลล์หรือไม่?

ได้ — เวอร์ชันใหม่ (Cellpose 3) มีโมเดลฟื้นฟูภาพสำหรับลดเสียงรบกวน, ลบเบลอ และเพิ่มความละเอียดภาพเพื่อปรับปรุงคุณภาพก่อนการแบ่งเซลล์

Icon

StarDist

การแบ่งส่วนอินสแตนซ์โดยใช้รูปร่างดาวเว้า
ผู้พัฒนา Uwe Schmidt, Martin Weigert, Coleman Broaddus, และ Gene Myers
แพลตฟอร์มที่รองรับ
  • เดสก์ท็อป Windows
  • เดสก์ท็อป macOS
  • เดสก์ท็อป Linux (ผ่าน Python)
  • ปลั๊กอิน ImageJ/Fiji
  • ส่วนขยาย QuPath
  • ปลั๊กอิน napari
การรองรับภาษา โครงการโอเพนซอร์สพร้อมเอกสารและชุมชนส่วนใหญ่เป็นภาษาอังกฤษ
รูปแบบการกำหนดราคา ฟรี และโอเพนซอร์ส ภายใต้สัญญาอนุญาต BSD-3-Clause

ภาพรวม

StarDist เป็นเครื่องมือเรียนรู้เชิงลึกสำหรับการแบ่งส่วนอินสแตนซ์ในภาพกล้องจุลทรรศน์ โดยแทนวัตถุแต่ละชิ้น (เช่น แกนเซลล์) เป็นรูปหลายเหลี่ยมดาวเว้าใน 2 มิติ หรือรูปหลายหน้าใน 3 มิติ ช่วยให้ตรวจจับและแยกวัตถุที่แน่นหรือทับซ้อนได้อย่างแม่นยำ ด้วยสถาปัตยกรรมที่แข็งแกร่ง StarDist จึงถูกใช้อย่างแพร่หลายสำหรับการแบ่งส่วนเซลล์และแกนอัตโนมัติในกล้องจุลทรรศน์เรืองแสง, พยาธิวิทยา และการวิเคราะห์ภาพชีวภาพอื่นๆ

คุณสมบัติหลัก

การแทนรูปร่างดาวเว้า

การแบ่งส่วนอินสแตนซ์ที่แม่นยำสูงโดยใช้รูปหลายเหลี่ยมดาวเว้า (2 มิติ) และรูปหลายหน้า (3 มิติ) เพื่อการตรวจจับวัตถุที่เชื่อถือได้

รองรับ 2D และ 3D

โมเดลเฉพาะสำหรับภาพ 2 มิติและข้อมูลปริมาตร 3 มิติ เพื่อการวิเคราะห์กล้องจุลทรรศน์อย่างครบถ้วน

โมเดลฝึกไว้ล่วงหน้า

โมเดลพร้อมใช้งานสำหรับแกนเรืองแสง, พยาธิวิทยา H&E และสถานการณ์การถ่ายภาพทั่วไปอื่นๆ

การทำนายหลายคลาส

จำแนกวัตถุที่ตรวจพบเป็นคลาสต่างๆ (เช่น ชนิดเซลล์ต่างกัน) ในการแบ่งส่วนครั้งเดียว

การรวมปลั๊กอิน

รวมเข้ากับ ImageJ/Fiji, QuPath และ napari อย่างราบรื่นสำหรับเวิร์กโฟลว์ที่ใช้ GUI

เมตริกในตัว

การประเมินการแบ่งส่วนอินสแตนซ์อย่างครบถ้วน รวมถึงความแม่นยำ, การเรียกคืน, คะแนน F1 และคุณภาพแบบพาโนปติก

พื้นฐานทางเทคนิค

นำเสนอครั้งแรกในบทความ MICCAI 2018 นวัตกรรมหลักของ StarDist คือการทำนายระยะทางตามรัศมีบนรังสีที่กำหนดร่วมกับความน่าจะเป็นของวัตถุในแต่ละพิกเซล ช่วยให้สร้างรูปร่างดาวเว้าได้อย่างแม่นยำ วิธีนี้แบ่งส่วนวัตถุที่สัมผัสกันอย่างใกล้ชิดซึ่งแยกยากด้วยวิธีแบบพิกเซลหรือกล่องล้อมแบบเดิมได้อย่างน่าเชื่อถือ

พัฒนาการล่าสุดได้ขยาย StarDist ไปสู่ภาพพยาธิวิทยา ไม่เพียงแต่แบ่งส่วนแกนเท่านั้น แต่ยังรวมถึงการจำแนกหลายคลาสของวัตถุที่ตรวจพบด้วย วิธีนี้ทำผลงานได้ดีเยี่ยมในความท้าทายต่างๆ เช่น การแข่งขัน CoNIC (Colon Nuclei Identification and Counting)

ดาวน์โหลดหรือเข้าถึง

การติดตั้งและตั้งค่า

1
ติดตั้ง Dependencies

ติดตั้ง TensorFlow (เวอร์ชัน 1.x หรือ 2.x) เป็นข้อกำหนดเบื้องต้นสำหรับ StarDist

2
ติดตั้งแพ็กเกจหลัก

ใช้ pip เพื่อติดตั้งแพ็กเกจ StarDist สำหรับ Python:

คำสั่งติดตั้ง
pip install stardist
3
ติดตั้งปลั๊กอิน GUI (ถ้าต้องการ)

สำหรับ napari:

การติดตั้งปลั๊กอิน napari
pip install stardist-napari

สำหรับ QuPath: ติดตั้งส่วนขยาย StarDist โดยลากไฟล์ .jar เข้าไปใน QuPath

สำหรับ ImageJ/Fiji: ใช้ตัวจัดการปลั๊กอินในตัวหรือการติดตั้งด้วยตนเองผ่านเมนูปลั๊กอิน

การรันการแบ่งส่วน

Python API

โหลดโมเดลที่ฝึกไว้ล่วงหน้า ปรับภาพของคุณให้เป็นมาตรฐาน และรันการทำนาย:

ตัวอย่าง Python
from stardist.models import StarDist2D
model = StarDist2D.from_pretrained('2D_versatile_fluo')
labels, details = model.predict_instances(image)
ปลั๊กอิน napari

เปิดภาพของคุณใน napari เลือกปลั๊กอิน StarDist เลือกโมเดลที่ฝึกไว้ล่วงหน้าหรือโมเดลที่กำหนดเอง และรันการทำนายได้โดยตรงจาก GUI

ImageJ/Fiji

ใช้ปลั๊กอิน StarDist จากเมนูปลั๊กอินเพื่อใช้โมเดลกับชุดภาพของคุณผ่านอินเทอร์เฟซที่ใช้งานง่าย

QuPath

หลังติดตั้งส่วนขยายแล้ว รันการตรวจจับ StarDist ผ่านคอนโซลสคริปต์หรืออินเทอร์เฟซกราฟิกของ QuPath สำหรับการวิเคราะห์พยาธิวิทยา

การฝึกและปรับแต่ง

1
เตรียมข้อมูลฝึก

สร้างภาพป้ายกำกับข้อมูลจริงที่วัตถุแต่ละชิ้นมีป้ายกำกับเฉพาะ ใช้เครื่องมือระบุเช่น LabKit, QuPath หรือ Fiji เพื่อเตรียมชุดข้อมูลของคุณ

2
ฝึกหรือปรับแต่ง

ใช้ Python API ของ StarDist เพื่อฝึกโมเดลใหม่หรือปรับแต่งโมเดลที่มีอยู่ด้วยข้อมูลที่คุณระบุเอง

ตัวเลือกหลังการประมวลผล

  • ใช้การกดทับสูงสุดแบบไม่ซ้ำ (NMS) เพื่อลบรูปร่างที่ซ้ำซ้อน
  • ใช้ StarDist OPP (Object Post-Processing) เพื่อรวมมาสก์สำหรับรูปร่างที่ไม่ใช่ดาวเว้า

ข้อจำกัดและข้อควรพิจารณา

ข้อกำหนดการฝึก: การฝึกต้องใช้มาสก์ข้อมูลจริงที่ระบุครบถ้วนสำหรับวัตถุทั้งหมด ซึ่งอาจใช้เวลานาน
  • สมมติฐานดาวเว้าอาจไม่เหมาะกับรูปร่างที่ไม่เว้ามากหรือไม่สม่ำเสมออย่างมาก
  • ความซับซ้อนในการติดตั้ง: การติดตั้งแบบกำหนดเองต้องใช้คอมไพเลอร์ C++ ที่เข้ากันได้สำหรับการสร้างส่วนขยาย
  • การเร่งด้วย GPU ขึ้นอยู่กับเวอร์ชัน TensorFlow, CUDA และ cuDNN ที่เข้ากันได้
  • ผู้ใช้บางรายรายงานปัญหาในการรันปลั๊กอิน ImageJ เนื่องจากการตั้งค่า Java

คำถามที่พบบ่อย

StarDist สามารถแบ่งส่วนภาพกล้องจุลทรรศน์ประเภทใดได้บ้าง?

StarDist ทำงานได้กับภาพหลายประเภท รวมถึงภาพเรืองแสง, ภาพสว่าง และพยาธิวิทยา (เช่น H&E) เนื่องจากมีโมเดลฝึกไว้ล่วงหน้าที่ยืดหยุ่นและปรับใช้กับโหมดการถ่ายภาพต่างๆ ได้

ฉันสามารถใช้ StarDist กับข้อมูล 3 มิติได้ไหม?

ได้ — StarDist รองรับการแบ่งส่วนอินสแตนซ์ 3 มิติ โดยใช้รูปหลายหน้าดาวเว้าสำหรับข้อมูลปริมาตร ขยายความสามารถจาก 2 มิติไปสู่การวิเคราะห์ 3 มิติเต็มรูปแบบ

ฉันจำเป็นต้องระบุข้อมูลเองเพื่อใช้ StarDist หรือไม่?

ไม่จำเป็นเสมอไป โมเดลฝึกไว้ล่วงหน้ามีให้ใช้งานและมักทำงานได้ดีทันที อย่างไรก็ตาม สำหรับข้อมูลเฉพาะหรือใหม่ การระบุและฝึกโมเดลเองจะช่วยเพิ่มความแม่นยำอย่างมาก

ซอฟต์แวร์ใดบ้างที่รองรับ StarDist?

StarDist รวมเข้ากับ napari, ImageJ/Fiji และ QuPath ช่วยให้คุณรันการแบ่งส่วนผ่าน GUI โดยไม่ต้องเขียนโค้ด นอกจากนี้ยังรองรับการใช้งานผ่าน Python API โดยตรงสำหรับเวิร์กโฟลว์ขั้นสูง

ฉันจะประเมินคุณภาพการแบ่งส่วนของ StarDist ได้อย่างไร?

StarDist มีฟังก์ชันในตัวสำหรับคำนวณเมตริกการแบ่งส่วนอินสแตนซ์ทั่วไป เช่น ความแม่นยำ, การเรียกคืน, คะแนน F1 และคุณภาพแบบพาโนปติก เพื่อประเมินประสิทธิภาพการแบ่งส่วน

SAM

โมเดลพื้นฐานสำหรับการแบ่งส่วนภาพ

ข้อมูลแอปพลิเคชัน

ผู้พัฒนา Meta AI Research (FAIR)
อุปกรณ์ที่รองรับ
  • ระบบเดสก์ท็อปผ่าน Python
  • ผสานรวมใน Microscopy Image Browser (MIB)
ภาษาและการเข้าถึง โมเดลพื้นฐานโอเพนซอร์สที่พร้อมใช้งานทั่วโลก; เอกสารเป็นภาษาอังกฤษ
ราคา ฟรี — โอเพนซอร์สภายใต้ใบอนุญาตของ Meta ผ่าน GitHub และการผสานรวมกับ MIB

ภาพรวมทั่วไป

SAM (Segment Anything Model) คือโมเดลพื้นฐาน AI ที่ทรงพลังสร้างโดย Meta ซึ่งช่วยให้สามารถแบ่งส่วนวัตถุใด ๆ ในภาพได้ทั้งแบบโต้ตอบและอัตโนมัติ โดยใช้คำสั่งเช่น จุด กล่องล้อมรอบ หรือหน้ากากหยาบ SAM สร้างหน้ากากแบ่งส่วนโดยไม่ต้องฝึกซ้ำเฉพาะงาน ในงานวิจัยจุลทรรศน์ ความยืดหยุ่นของ SAM ได้รับการปรับใช้สำหรับการแบ่งส่วนเซลล์ การตรวจจับออร์แกเนลล์ และการวิเคราะห์ทางพยาธิวิทยา ให้โซลูชันที่ขยายได้สำหรับนักวิจัยที่ต้องการเครื่องมือแบ่งส่วนทั่วไปที่สามารถใช้คำสั่งได้

บทนำโดยละเอียด

เดิมทีได้รับการฝึกอบรมโดย Meta บนหน้ากากมากกว่า 1 พันล้านหน้ากาก จากภาพกว่า 11 ล้านภาพ SAM ถูกออกแบบเป็นโมเดลพื้นฐานที่ใช้คำสั่งสำหรับการแบ่งส่วนด้วยประสิทธิภาพ "zero-shot" บนโดเมนใหม่ ในงานวิจัยภาพทางการแพทย์ SAM ได้รับการประเมินสำหรับการแบ่งส่วนพยาธิวิทยาแบบสไลด์เต็ม การตรวจจับเนื้องอก และการระบุเซลล์นิวเคลียส อย่างไรก็ตาม ประสิทธิภาพในกรณีที่มีตัวอย่างหนาแน่น เช่น เซลล์นิวเคลียส มีความผันผวน: แม้จะมีคำสั่งจำนวนมาก (เช่น 20 คลิกหรือกล่อง) การแบ่งส่วนแบบ zero-shot ก็อาจมีปัญหาในภาพจุลทรรศน์ที่ซับซ้อน

เพื่อแก้ไขข้อจำกัดนี้ มีการปรับใช้เฉพาะโดเมนดังนี้:

  • SAMCell — ปรับแต่งบนชุดข้อมูลจุลทรรศน์ขนาดใหญ่เพื่อการแบ่งส่วน zero-shot ที่แข็งแกร่งในเซลล์หลายประเภทโดยไม่ต้องฝึกซ้ำในแต่ละการทดลอง
  • μSAM — ฝึกซ้ำบนภาพจุลทรรศน์ที่มีการทำเครื่องหมายด้วยมือกว่า 17,000 ภาพเพื่อเพิ่มความแม่นยำในโครงสร้างเซลล์ขนาดเล็ก

คุณสมบัติหลัก

การแบ่งส่วนโดยใช้คำสั่ง

การโต้ตอบที่ยืดหยุ่นโดยใช้จุด กล่อง และหน้ากากเพื่อการควบคุมที่แม่นยำ

การทั่วไปแบบ Zero-Shot

ทำการแบ่งส่วนโดยไม่ต้องปรับแต่งกับโดเมนภาพใหม่

รองรับการปรับแต่ง

ปรับใช้ได้สำหรับจุลทรรศน์และพยาธิวิทยาผ่านการฝึกซ้ำแบบ few-shot หรือใช้คำสั่ง

การผสานรวมแบบ 3 มิติ

มีใน Microscopy Image Browser (MIB) พร้อมรองรับการแบ่งส่วน 3 มิติและการแทรกแซง

การปรับใช้สำหรับการนับเซลล์

IDCC-SAM ช่วยให้นับเซลล์อัตโนมัติในภูมิคุ้มกันเซลล์วิทยาโดยไม่ต้องทำเครื่องหมายด้วยมือ

ดาวน์โหลดหรือเข้าถึง

คู่มือผู้ใช้

1
ติดตั้ง SAM ใน MIB
  • เปิด Microscopy Image Browser และไปที่แผงแบ่งส่วน SAM
  • ตั้งค่าตัวแปลภาษา Python และเลือกโมเดลระหว่าง SAM-1 หรือ SAM-2
  • สำหรับเร่งความเร็วด้วย GPU ให้เลือก "cuda" ในสภาพแวดล้อมการทำงาน (แนะนำเพื่อประสิทธิภาพสูงสุด)
2
เรียกใช้การแบ่งส่วนแบบโต้ตอบ
  • คำสั่งจุด: คลิกบนวัตถุเพื่อกำหนดเมล็ดบวก; ใช้ Shift + คลิก เพื่อขยาย และ Ctrl + คลิก สำหรับเมล็ดลบ
  • สแต็ก 3 มิติ: ใช้โหมดโต้ตอบ 3 มิติ — คลิกที่สไลซ์หนึ่ง เลื่อนด้วย shift และแทรกเมล็ดข้ามสไลซ์
  • โหมดปรับแต่ง: แทนที่ เพิ่ม ลบหน้ากาก หรือสร้างเลเยอร์ใหม่ตามต้องการ
3
การแบ่งส่วนอัตโนมัติ
  • ใช้ตัวเลือก "Automatic everything" ของ MIB ในแผง SAM-2 เพื่อแบ่งส่วนวัตถุทั้งหมดในพื้นที่ที่มองเห็น
  • ตรวจสอบและปรับปรุงหน้ากากหลังการแบ่งส่วนตามต้องการ
4
ปรับแต่งและปรับใช้
  • ใช้กระบวนการปรับแต่งด้วยคำสั่ง (เช่น "All-in-SAM") เพื่อสร้างการทำเครื่องหมายระดับพิกเซลจากคำสั่งผู้ใช้ที่กระจัดกระจาย
  • สำหรับการนับเซลล์ ใช้ IDCC-SAM ซึ่งใช้ SAM ในกระบวนการ zero-shot พร้อมการประมวลผลหลัง
  • สำหรับการแบ่งส่วนเซลล์ที่แม่นยำสูง ใช้ SAMCell ซึ่งปรับแต่งบนภาพเซลล์จุลทรรศน์

ข้อจำกัดและข้อควรพิจารณา

ข้อจำกัดด้านประสิทธิภาพ: ประสิทธิภาพ zero-shot ของ SAM บนโครงสร้างทางชีววิทยาที่หนาแน่น ขนาดเล็ก หรือซ้อนทับกัน (เช่น นิวเคลียส) ไม่สม่ำเสมอหากไม่มีการปรับแต่งเฉพาะโดเมน คุณภาพการแบ่งส่วนขึ้นอยู่กับการออกแบบคำสั่งอย่างมาก (จุด เทียบกับกล่อง หรือหน้ากาก)
  • ประสิทธิภาพ zero-shot ไม่สม่ำเสมอบนโครงสร้างหนาแน่นหรือซ้อนทับกันหากไม่มีการปรับแต่งโดเมน
  • คุณภาพการแบ่งส่วนขึ้นอยู่กับการออกแบบและกลยุทธ์คำสั่งอย่างมาก
  • แนะนำให้ใช้ GPU อย่างยิ่ง; การประมวลผลด้วย CPU ช้ามาก
  • มีปัญหากับภาพสไลด์ความละเอียดสูงมากและโครงสร้างเนื้อเยื่อหลายระดับ
  • การปรับแต่งหรือปรับใช้ SAM สำหรับจุลทรรศน์อาจต้องมีความชำนาญด้านการเรียนรู้ของเครื่อง

คำถามที่พบบ่อย

สามารถใช้ SAM โดยตรงสำหรับการแบ่งส่วนเซลล์ในภาพจุลทรรศน์ได้หรือไม่?

ได้ — ผ่านการปรับใช้เช่น SAMCell ซึ่งปรับแต่ง SAM บนชุดข้อมูลจุลทรรศน์โดยเฉพาะสำหรับงานแบ่งส่วนเซลล์

จำเป็นต้องทำเครื่องหมายเซลล์ด้วยมือเพื่อใช้ SAM หรือไม่?

ไม่เสมอไป ด้วย IDCC-SAM คุณสามารถนับเซลล์แบบ zero-shot ได้โดยไม่ต้องทำเครื่องหมายด้วยมือ

จะปรับปรุงประสิทธิภาพของ SAM สำหรับวัตถุขนาดเล็กหรือวางแน่นได้อย่างไร?

ใช้การปรับแต่งด้วยคำสั่ง (เช่น "All-in-SAM") หรือเวอร์ชันจุลทรรศน์ที่ฝึกล่วงหน้า เช่น μSAM ซึ่งฝึกบนภาพจุลทรรศน์ที่มีการทำเครื่องหมายมากกว่า 17,000 ภาพ

จำเป็นต้องใช้ GPU ในการรัน SAM สำหรับแอปพลิเคชันภาพชีววิทยาหรือไม่?

แม้จะสามารถใช้ CPU ได้ แต่ แนะนำอย่างยิ่งให้ใช้ GPU เพื่อความเร็วในการประมวลผลและการแบ่งส่วนแบบโต้ตอบแบบเรียลไทม์

SAM รองรับสแต็กภาพ 3 มิติหรือไม่?

ได้ — การผสานรวม SAM-2 ใน MIB รองรับการแบ่งส่วน 3 มิติพร้อมการแทรกเมล็ดข้ามสไลซ์สำหรับการวิเคราะห์ปริมาตร

Icon

AxonDeepSeg

เครื่องมือแบ่งส่วนแอกซอน-ไมอีลินด้วย AI
ผู้พัฒนา ห้องปฏิบัติการ NeuroPoly ที่ Polytechnique Montréal และ Université de Montréal
แพลตฟอร์มที่รองรับ
  • Windows
  • macOS
  • Linux
  • Napari GUI สำหรับการแบ่งส่วนแบบโต้ตอบ
ภาษา เอกสารภาษาอังกฤษ; เครื่องมือโอเพนซอร์สที่ใช้ทั่วโลก
ราคา ฟรี และโอเพนซอร์ส

ภาพรวม

AxonDeepSeg คือเครื่องมือที่ขับเคลื่อนด้วย AI สำหรับการแบ่งส่วนแอกซอนและไมอีลินในภาพกล้องจุลทรรศน์โดยอัตโนมัติ โดยใช้เครือข่ายประสาทเทียมแบบคอนโวลูชันเพื่อให้การแบ่งส่วนสามประเภทที่แม่นยำ (แอกซอน, ไมอีลิน, พื้นหลัง) ในหลายรูปแบบของการถ่ายภาพ เช่น TEM, SEM และกล้องจุลทรรศน์แบบ bright-field ด้วยการทำงานอัตโนมัติในการวัดรูปร่างเชิงปริมาณ เช่น เส้นผ่านศูนย์กลางแอกซอน, g-ratio และความหนาของไมอีลิน AxonDeepSeg ช่วยให้การวิเคราะห์เชิงปริมาณในงานวิจัยประสาทวิทยามีประสิทธิภาพมากขึ้น ลดเวลาการทำเครื่องหมายด้วยมือและเพิ่มความสม่ำเสมอของผลลัพธ์

คุณสมบัติหลัก

โมเดลที่ผ่านการฝึกฝนล่วงหน้า

โมเดลพร้อมใช้งานที่ปรับแต่งสำหรับการถ่ายภาพด้วย TEM, SEM และ bright-field

การแบ่งส่วนสามประเภท

การจำแนกพื้นที่แอกซอน, ไมอีลิน และพื้นหลังในภาพกล้องจุลทรรศน์อย่างแม่นยำ

การวิเคราะห์รูปร่างเชิงปริมาณ

คำนวณเส้นผ่านศูนย์กลางแอกซอน, g-ratio, ความหนาของไมอีลิน และความหนาแน่นโดยอัตโนมัติ

การแก้ไขแบบโต้ตอบ

การรวมกับ Napari GUI ช่วยให้ปรับแต่งหน้ากากการแบ่งส่วนด้วยตนเองเพื่อความแม่นยำที่สูงขึ้น

กรอบงานบน Python

ผสานรวมอย่างราบรื่นในกระบวนการวิเคราะห์เนื้อเยื่อประสาทขนาดใหญ่ที่กำหนดเอง

ชุดทดสอบยืนยันผล

สคริปต์ทดสอบครบถ้วนเพื่อรับประกันความสม่ำเสมอและผลลัพธ์การแบ่งส่วนที่เชื่อถือได้

รายละเอียดทางเทคนิค

พัฒนาโดยห้องปฏิบัติการ NeuroPoly, AxonDeepSeg ใช้การเรียนรู้เชิงลึกเพื่อให้การแบ่งส่วนที่มีความแม่นยำสูงสำหรับงานประสาทวิทยาศาสตร์ โมเดลที่ผ่านการฝึกฝนล่วงหน้ามีให้สำหรับหลายรูปแบบของกล้องจุลทรรศน์ เพื่อความหลากหลายในการใช้งาน เครื่องมือนี้รวมกับ Napari ซึ่งช่วยให้สามารถแก้ไขหน้ากากการแบ่งส่วนแบบโต้ตอบ เพิ่มความแม่นยำในชุดข้อมูลที่ท้าทาย AxonDeepSeg คำนวณเมตริกเชิงรูปร่างสำคัญ สนับสนุนการศึกษาขนาดใหญ่เกี่ยวกับโครงสร้างและพยาธิสภาพของเนื้อเยื่อประสาท กรอบงานบน Python ช่วยให้ผสานรวมในกระบวนการวิเคราะห์ขนาดใหญ่ของรูปร่างแอกซอนและไมอีลินได้อย่างง่ายดาย

ดาวน์โหลดหรือเข้าถึง

การติดตั้งและตั้งค่า

1
ติดตั้ง Dependencies

ตรวจสอบให้แน่ใจว่าติดตั้ง Python 3.8 หรือเวอร์ชันใหม่กว่าแล้ว จากนั้นติดตั้ง AxonDeepSeg และ Napari ด้วยคำสั่ง pip:

คำสั่งติดตั้ง
pip install axondeepseg napari
2
ตรวจสอบการติดตั้ง

รันสคริปต์ทดสอบที่ให้มาเพื่อยืนยันว่าทุกส่วนติดตั้งและทำงานได้อย่างถูกต้อง

3
โหลดภาพของคุณ

นำเข้าภาพกล้องจุลทรรศน์ (TEM, SEM หรือ bright-field) เข้าใน Napari หรือสภาพแวดล้อม Python ของคุณ

4
เลือกโมเดลและแบ่งส่วน

เลือกโมเดลที่ผ่านการฝึกฝนล่วงหน้าที่เหมาะสมกับรูปแบบภาพของคุณและรันการแบ่งส่วนเพื่อสร้างหน้ากากแอกซอนและไมอีลิน

5
วิเคราะห์เมตริก

คำนวณการวัดรูปร่างเชิงปริมาณโดยอัตโนมัติ เช่น เส้นผ่านศูนย์กลางแอกซอน, g-ratio, ความหนาแน่น และความหนาของไมอีลิน จากนั้นส่งออกผลลัพธ์ในรูปแบบ CSV

6
ปรับแต่งผลลัพธ์ (ถ้าต้องการ)

ใช้ Napari GUI เพื่อปรับแต่งหน้ากากการแบ่งส่วนด้วยตนเองในส่วนที่จำเป็น โดยรวมหรือยกเลิกหน้ากากเพื่อเพิ่มความแม่นยำ

ข้อควรพิจารณาที่สำคัญ

ต้องรีแซมเปิลภาพ: ภาพอินพุตต้องถูกรีแซมเปิลให้ตรงกับขนาดพิกเซลของโมเดล (เช่น 0.01 μm/px สำหรับ TEM) เพื่อความแม่นยำสูงสุดในการแบ่งส่วน
  • ประสิทธิภาพอาจลดลงกับรูปแบบภาพใหม่หรือที่ไม่เคยฝึก
  • อาจต้องแก้ไขด้วยตนเองในบริเวณที่ซับซ้อนหรือท้าทาย
  • แนะนำให้ใช้ GPU เพื่อการประมวลผลที่รวดเร็วของชุดข้อมูลขนาดใหญ่; รองรับการประมวลผลด้วย CPU สำหรับงานขนาดเล็ก

คำถามที่พบบ่อย

AxonDeepSeg รองรับรูปแบบกล้องจุลทรรศน์ใดบ้าง?

AxonDeepSeg รองรับ TEM (Transmission Electron Microscopy), SEM (Scanning Electron Microscopy) และกล้องจุลทรรศน์แบบ bright-field โดยมีโมเดลที่ผ่านการฝึกฝนล่วงหน้าสำหรับแต่ละรูปแบบ

AxonDeepSeg ใช้งานฟรีหรือไม่?

ใช่ AxonDeepSeg เป็นโอเพนซอร์สและใช้งานได้ฟรีสำหรับทั้งงานวิชาการและเชิงพาณิชย์

ฉันสามารถคำนวณเมตริกเชิงรูปร่างโดยอัตโนมัติได้หรือไม่?

ได้ AxonDeepSeg คำนวณเส้นผ่านศูนย์กลางแอกซอน, g-ratio, ความหนาของไมอีลิน และความหนาแน่นโดยอัตโนมัติจากภาพที่แบ่งส่วนแล้ว

ฉันจำเป็นต้องใช้ GPU ในการรัน AxonDeepSeg หรือไม่?

แนะนำให้ใช้ GPU เพื่อการแบ่งส่วนที่รวดเร็วสำหรับชุดข้อมูลขนาดใหญ่ แต่ก็รองรับการประมวลผลด้วย CPU สำหรับงานวิเคราะห์ขนาดเล็ก

ฉันสามารถแก้ไขหน้ากากการแบ่งส่วนด้วยตนเองได้หรือไม่?

ได้ การรวมกับ Napari GUI ช่วยให้สามารถแก้ไขและปรับแต่งหน้ากากการแบ่งส่วนแบบโต้ตอบเพื่อความแม่นยำสูงขึ้นในบริเวณที่ท้าทาย

Icon

Ilastik

การแบ่งส่วนภาพชีวภาพแบบโต้ตอบ
ผู้พัฒนา ทีม Ilastik ที่ห้องปฏิบัติการชีววิทยาโมเลกุลยุโรป (EMBL) และพันธมิตรทางวิชาการที่เกี่ยวข้อง
แพลตฟอร์มที่รองรับ
  • Windows
  • macOS
  • Linux
ภาษา อังกฤษ
ราคา ฟรี และโอเพนซอร์ส

ภาพรวม

Ilastik คือเครื่องมือทรงพลังที่ขับเคลื่อนด้วย AI สำหรับการแบ่งส่วนภาพ การจำแนก และการวิเคราะห์ข้อมูลกล้องจุลทรรศน์แบบโต้ตอบ โดยใช้เทคนิคการเรียนรู้ของเครื่อง เช่น ตัวจำแนก Random Forest ช่วยให้นักวิจัยสามารถแบ่งส่วนพิกเซล จำแนกวัตถุ ติดตามเซลล์ตามเวลา และทำการนับความหนาแน่นในชุดข้อมูล 2D และ 3D ด้วยอินเทอร์เฟซที่ใช้งานง่ายและผลตอบรับแบบเรียลไทม์ Ilastik จึงเข้าถึงได้สำหรับนักวิทยาศาสตร์ที่ไม่มีความเชี่ยวชาญด้านการเขียนโปรแกรม และได้รับการยอมรับอย่างกว้างขวางในสาขาชีววิทยาเซลล์ ประสาทวิทยา และการถ่ายภาพทางการแพทย์

คุณสมบัติหลัก

การจำแนกพิกเซลแบบโต้ตอบ

ผลตอบรับแบบเรียลไทม์ขณะที่คุณระบุพื้นที่ตัวอย่างเพื่อให้ได้ผลลัพธ์การแบ่งส่วนทันที

การจำแนกวัตถุ

จัดประเภทโครงสร้างที่แบ่งส่วนตามลักษณะรูปร่างและความเข้มของภาพ

การติดตามเซลล์

ติดตามการเคลื่อนไหวและการแบ่งเซลล์ในข้อมูลกล้องจุลทรรศน์ไทม์แลปส์ 2D และ 3D

การนับความหนาแน่น

วัดปริมาณในพื้นที่แออัดโดยไม่ต้องแบ่งส่วนวัตถุแต่ละชิ้นอย่างชัดเจน

เวิร์กโฟลว์การแกะสลัก 3D

การแบ่งส่วนกึ่งอัตโนมัติสำหรับปริมาตร 3D ที่ซับซ้อนด้วยการโต้ตอบที่เข้าใจง่าย

การประมวลผลแบบชุด

ประมวลผลภาพหลายภาพโดยอัตโนมัติด้วยโหมดคำสั่งแบบไม่มีอินเทอร์เฟซ

ดาวน์โหลด

คู่มือเริ่มต้นใช้งาน

1
การติดตั้ง

ดาวน์โหลด Ilastik สำหรับระบบปฏิบัติการของคุณจากเว็บไซต์ทางการ แพ็กเกจนี้รวมไลบรารี Python ที่จำเป็นทั้งหมดไว้แล้ว ดังนั้นโปรดปฏิบัติตามคำแนะนำการติดตั้งสำหรับแพลตฟอร์มของคุณ

2
เลือกเวิร์กโฟลว์

เปิด Ilastik และเลือกเวิร์กโฟลว์การวิเคราะห์ของคุณ: การจำแนกพิกเซล การจำแนกวัตถุ การติดตาม หรือการนับความหนาแน่น โหลดชุดข้อมูลภาพของคุณซึ่งอาจรวมถึงภาพหลายช่องสัญญาณ 3D หรือไทม์แลปส์

3
ระบุและฝึกสอน

ทำการระบุพิกเซลหรือวัตถุตัวอย่างในภาพของคุณ ตัวจำแนก Random Forest ของ Ilastik จะเรียนรู้จากการระบุเหล่านี้และทำนายป้ายกำกับโดยอัตโนมัติทั่วทั้งชุดข้อมูลของคุณ

4
ส่งออกผลลัพธ์

ใช้โมเดลที่ฝึกสอนแล้วเพื่อแบ่งส่วนหรือจำแนกชุดข้อมูลทั้งหมด ส่งออกผลลัพธ์เป็นภาพที่มีป้ายกำกับ แผนที่ความน่าจะเป็น หรือ ตารางเชิงปริมาณสำหรับการวิเคราะห์และการแสดงผลต่อไป

5
การประมวลผลแบบชุด (ไม่บังคับ)

ใช้โหมดไม่มีอินเทอร์เฟซของ Ilastik เพื่อประมวลผลภาพหลายภาพโดยอัตโนมัติ เหมาะสำหรับสายงานวิเคราะห์ขนาดใหญ่

ข้อจำกัดและข้อควรพิจารณา

  • การระบุแบบโต้ตอบ อาจใช้เวลานานสำหรับชุดข้อมูลขนาดใหญ่มาก
  • ความแม่นยำขึ้นอยู่กับ คุณภาพและความเป็นตัวแทนของการระบุโดยผู้ใช้
  • ความต้องการหน่วยความจำ — ชุดข้อมูลความละเอียดสูงหรือขนาดหลายกิกะไบต์อาจต้องการ RAM จำนวนมาก
  • ข้อมูลซับซ้อน — ตัวจำแนก Random Forest อาจทำงานด้อยกว่าระบบเครือข่ายประสาทลึกในข้อมูลภาพที่มีความแปรปรวนสูงหรือซับซ้อน

คำถามที่พบบ่อย

Ilastic รองรับข้อมูลกล้องจุลทรรศน์ 3D และไทม์แลปส์หรือไม่?

ใช่ Ilastik รองรับปริมาตร 3D และการทดลองไทม์แลปส์สำหรับการแบ่งส่วน การติดตาม และการวิเคราะห์เชิงปริมาณในหลายช่วงเวลาอย่างเต็มที่

Ilastic ใช้งานฟรีหรือไม่?

ใช่ Ilastik เป็นซอฟต์แวร์ฟรีและโอเพนซอร์สอย่างสมบูรณ์ พร้อมให้ใช้งานสำหรับผู้ใช้ทุกคนโดยไม่มีข้อจำกัดด้านใบอนุญาต

ฉันต้องมีทักษะการเขียนโปรแกรมเพื่อใช้ Ilastik หรือไม่?

ไม่ Ilastik มีอินเทอร์เฟซกราฟิกที่ใช้งานง่ายพร้อมผลตอบรับแบบเรียลไทม์ ทำให้นักวิจัยที่ไม่มีความเชี่ยวชาญด้านการเขียนโปรแกรมสามารถใช้งานได้ ผู้ใช้ขั้นสูงยังสามารถใช้การประมวลผลแบบชุดผ่านคำสั่งได้

Ilastic สามารถติดตามเซลล์ได้หรือไม่?

ใช่ เวิร์กโฟลว์การติดตามเฉพาะช่วยให้วิเคราะห์การเคลื่อนไหวและการแบ่งเซลล์ในชุดข้อมูลไทม์แลปส์ 2D และ 3D พร้อมการติดตามสายพันธุ์อัตโนมัติ

ฉันสามารถส่งออกผลลัพธ์การแบ่งส่วนในรูปแบบใดได้บ้าง?

ผลลัพธ์การแบ่งส่วนสามารถส่งออกเป็นภาพที่มีป้ายกำกับ แผนที่ความน่าจะเป็น หรือ ตารางเชิงปริมาณ ทำให้สามารถผสานรวมกับเครื่องมือวิเคราะห์และซอฟต์แวร์แสดงผลต่อไปได้อย่างราบรื่น

เครื่องมือเหล่านี้ครอบคลุมตั้งแต่ระดับผู้เริ่มต้นจนถึงผู้เชี่ยวชาญ หลายตัวเป็นซอฟต์แวร์ฟรีและโอเพนซอร์ส ช่วยให้กระบวนการทำงาน AI สามารถทำซ้ำและแบ่งปันในชุมชนนักวิจัยได้

ความท้าทายและทิศทางในอนาคต

ความท้าทายในปัจจุบัน

ข้อจำกัดด้านข้อมูล: โมเดลเชิงลึกต้องการชุดข้อมูลขนาดใหญ่ที่มีการติดป้ายกำกับอย่างแม่นยำ ข้อมูลกล้องจุลทรรศน์มักมีสัญญาณรบกวนและโครงสร้างชีวภาพมีความหลากหลาย ทำให้ยากต่อการได้ภาพที่มีการอธิบายอย่างชัดเจน โมเดลที่ฝึกกับชุดภาพหนึ่งอาจไม่สามารถใช้งานกับเครื่องมือหรือการเตรียมตัวอย่างที่ต่างกันได้
ข้อกังวลเรื่องความเข้าใจ: โครงข่ายประสาทเทียมเชิงลึกมักเป็น "กล่องดำ" ที่อาจสร้างผลลัพธ์ที่ดูสมเหตุสมผลแม้ผิดพลาด อาจ "หลอกลวง" คุณลักษณะ (สร้างสิ่งผิดปกติหรือโครงสร้างจินตนาการ) หากข้อมูลนำเข้าไม่ชัดเจน ผลลัพธ์ AI ควรได้รับการตรวจสอบโดยผู้เชี่ยวชาญหรือการทดลองเสมอ

แนวโน้มที่เกิดขึ้นใหม่

โมเดลพื้นฐานด้านภาพ

ระบบ AI รุ่นใหม่สัญญาว่าจะลดความจำเป็นในการฝึกเฉพาะงาน

  • โมเดลเช่น SAM และระบบที่ใช้ CLIP
  • AI หนึ่งตัวจัดการงานกล้องจุลทรรศน์หลายอย่าง
  • การนำไปใช้และปรับตัวที่รวดเร็วขึ้น

กล้องจุลทรรศน์ที่ช่วยด้วย AI

ระบบกล้องจุลทรรศน์อัจฉริยะและอัตโนมัติเต็มรูปแบบกำลังกลายเป็นความจริง

  • ควบคุมด้วยภาษาธรรมชาติผ่าน LLMs
  • วงจรป้อนกลับอัตโนมัติเต็มรูปแบบ
  • เปิดโอกาสเข้าถึงกล้องจุลทรรศน์ขั้นสูงอย่างทั่วถึง
ความท้าทายและอนาคตของ AI ในกล้องจุลทรรศน์
วิสัยทัศน์ในอนาคต: กล้องจุลทรรศน์ที่ช่วยด้วย AI พร้อมการควบคุมด้วยภาษาธรรมชาติและการทำงานอัตโนมัติ

สรุปประเด็นสำคัญ

  • AI กำลังเปลี่ยนแปลงการประมวลผลภาพกล้องจุลทรรศน์อย่างรวดเร็วด้วยความแม่นยำและระบบอัตโนมัติที่ดีขึ้น
  • การเรียนรู้เชิงลึกทำงานได้ดีกว่าการเรียนรู้ของเครื่องแบบดั้งเดิมกับภาพกล้องจุลทรรศน์ที่ซับซ้อนและแปรปรวน
  • CNNs เรียนรู้คุณลักษณะเป็นลำดับชั้นจากพิกเซลดิบเพื่อการวิเคราะห์ที่ทนทาน
  • การประยุกต์ใช้หลักได้แก่ การแบ่งส่วน, การจำแนก, การติดตาม, การลดสัญญาณรบกวน และการเก็บภาพอัตโนมัติ
  • ความสำเร็จขึ้นอยู่กับข้อมูลคุณภาพและการตรวจสอบอย่างรอบคอบโดยผู้เชี่ยวชาญ
  • โมเดลพื้นฐานด้านภาพและกล้องจุลทรรศน์ที่ช่วยด้วย AI คืออนาคตของสาขานี้

ด้วยความก้าวหน้าอย่างต่อเนื่องและความร่วมมือในชุมชน (เครื่องมือโอเพนซอร์ส, ชุดข้อมูลที่แบ่งปัน) AI จะกลายเป็นส่วนสำคัญของ "ดวงตา" ของกล้องจุลทรรศน์ ช่วยให้นักวิทยาศาสตร์เห็นสิ่งที่มองไม่เห็น

เอกสารอ้างอิงภายนอก
บทความนี้ได้รวบรวมโดยอ้างอิงจากแหล่งข้อมูลภายนอกดังต่อไปนี้:
121 บทความ
Rosie Ha เป็นผู้เขียนบทความที่ Inviai เชี่ยวชาญในการแบ่งปันความรู้และแนวทางแก้ไขเกี่ยวกับปัญญาประดิษฐ์ ด้วยประสบการณ์ในการวิจัยและประยุกต์ใช้ AI ในหลายสาขา เช่น ธุรกิจ การสร้างสรรค์เนื้อหา และระบบอัตโนมัติ Rosie Ha มุ่งมั่นนำเสนอเนื้อหาที่เข้าใจง่าย ใช้งานได้จริง และสร้างแรงบันดาลใจ ภารกิจของ Rosie Ha คือช่วยให้ทุกคนใช้ AI อย่างมีประสิทธิภาพเพื่อเพิ่มผลผลิตและขยายขีดความสามารถในการสร้างสรรค์

คำแสดงความคิดเห็น 0

ทิ้งความคิดเห็น

ยังไม่มีความคิดเห็น มาเป็นคนแรกที่แสดงความคิดเห็น!

ค้นหา