Akankah AI Mempertahankan atau Menghilangkan Disparitas Kesehatan?

15 Mei 2023 — Ke mana pun Anda memandang, aplikasi pembelajaran mesin dalam kecerdasan buatan dimanfaatkan untuk mengubah status quo. Hal ini terutama berlaku dalam perawatan kesehatan, di mana kemajuan teknologi mempercepat penemuan obat dan mengidentifikasi obat baru yang potensial.

Tapi kemajuan ini tidak datang tanpa tanda bahaya. Mereka juga menempatkan kaca pembesar pada perbedaan yang dapat dicegah dalam beban penyakit, cedera, kekerasan, dan peluang untuk mencapai kesehatan yang optimal, semuanya mempengaruhi secara tidak proporsional orang kulit berwarna dan komunitas terlayani lainnya.

Pertanyaan yang ada adalah apakah aplikasi AI akan semakin memperluas atau membantu mempersempit kesenjangan kesehatan, terutama dalam hal pengembangan algoritme klinis yang digunakan dokter untuk mendeteksi dan mendiagnosis penyakit, memprediksi hasil, dan memandu strategi pengobatan.

“Salah satu masalah yang ditunjukkan AI secara umum dan khususnya untuk kedokteran adalah bahwa algoritme ini bisa bias, yang berarti bahwa algoritme ini bekerja secara berbeda pada kelompok orang yang berbeda,” kata Paul Yi, MD, asisten profesor radiologi diagnostik dan nuklir. kedokteran di Fakultas Kedokteran Universitas Maryland, dan direktur Pusat Pencitraan Cerdas Medis Universitas Maryland (UM2ii).

“Untuk pengobatan, mendapatkan diagnosis yang salah secara harfiah berarti hidup atau mati tergantung pada situasinya,” kata Yi.

Yi adalah rekan penulis studi yang diterbitkan bulan lalu di jurnal Pengobatan Alam di mana dia dan rekan-rekannya mencoba menemukan apakah kumpulan data pencitraan medis yang digunakan dalam kompetisi ilmu data membantu atau menghalangi kemampuan untuk mengenali bias dalam model AI. Kontes ini melibatkan ilmuwan komputer dan dokter yang mengumpulkan data dari seluruh dunia, dengan tim yang bersaing untuk membuat algoritme klinis terbaik, banyak di antaranya diadopsi ke dalam praktik.

Para peneliti menggunakan situs kompetisi sains data populer bernama Kaggle untuk kompetisi pencitraan medis yang diadakan antara tahun 2010 dan 2022. Mereka kemudian mengevaluasi kumpulan data untuk mempelajari apakah variabel demografis dilaporkan. Terakhir, mereka melihat apakah kompetisi tersebut menyertakan kinerja berbasis demografis sebagai bagian dari kriteria evaluasi untuk algoritme.

Yi mengatakan bahwa dari 23 kumpulan data yang termasuk dalam penelitian, “mayoritas – 61% – tidak melaporkan data demografi sama sekali.” Sembilan kompetisi melaporkan data demografis (kebanyakan usia dan jenis kelamin), dan satu kompetisi melaporkan ras dan etnis.

“Tidak satu pun dari kompetisi ilmu data ini, terlepas dari apakah mereka melaporkan demografi atau tidak, mengevaluasi bias ini, yaitu, akurasi jawaban pada pria vs wanita, atau pasien kulit putih vs kulit hitam vs Asia,” kata Yi. Implikasi? “Jika kita tidak memiliki demografi maka kita tidak dapat mengukur bias,” jelasnya.

Kebersihan Algoritma, Cek, dan Saldo

“Untuk mengurangi bias dalam AI, pengembang, penemu, dan peneliti teknologi medis berbasis AI perlu secara sadar mempersiapkan diri untuk menghindarinya dengan secara proaktif meningkatkan representasi populasi tertentu dalam kumpulan data mereka,” kata Bertalan Meskó, MD, PhD, direktur dari Institut Futuris Medis di Budapest, Hongaria.

Salah satu pendekatan, yang disebut Meskó sebagai “kebersihan algoritme”, mirip dengan yang diambil oleh sekelompok peneliti di Universitas Emory di Atlanta saat mereka membuat kumpulan data granular yang beragam secara rasial – Dataset Pencitraan EMory BrEast (EMBED) — yang terdiri dari 3,4 juta skrining dan gambar mamografi kanker payudara diagnostik. Empat puluh dua persen dari 11.910 pasien unik yang diwakili adalah wanita Afrika-Amerika yang dilaporkan sendiri.

“Fakta bahwa basis data kami beragam adalah semacam produk sampingan langsung dari populasi pasien kami,” kata Hari Trivedi, MD, asisten profesor di departemen Ilmu Radiologi dan Pencitraan dan Informatika Biomedis di Fakultas Kedokteran Universitas Emory dan co-direktur laboratorium Inovasi Kesehatan dan Informatika Terjemahan (HITI).

“Bahkan sekarang, sebagian besar kumpulan data yang digunakan dalam pengembangan model pembelajaran mendalam tidak menyertakan informasi demografis tersebut,” kata Trivedi. “Tetapi sangat penting dalam EMBED dan semua kumpulan data di masa depan yang kami kembangkan untuk membuat informasi tersebut tersedia karena tanpanya, tidak mungkin untuk mengetahui bagaimana dan kapan model Anda mungkin bias atau bahwa model yang Anda uji mungkin bias.”

“Anda tidak bisa hanya menutup mata untuk itu,” katanya.

Yang penting, bias dapat diperkenalkan kapan saja dalam siklus pengembangan AI, tidak hanya di awal.

“Pengembang dapat menggunakan uji statistik yang memungkinkan mereka mendeteksi jika data yang digunakan untuk melatih algoritme berbeda secara signifikan dari data aktual yang mereka temui dalam pengaturan kehidupan nyata,” kata Meskó. “Ini bisa menunjukkan bias karena data pelatihan.”

Pendekatan lain adalah “de-biasing,” yang membantu menghilangkan perbedaan antar kelompok atau individu berdasarkan atribut individu. Meskó mereferensikan sumber terbuka IBM Perangkat AI Fairness 360yang merupakan kumpulan metrik dan algoritme komprehensif yang dapat diakses oleh peneliti dan pengembang untuk mengurangi bias dalam kumpulan data dan AI mereka sendiri.

Check and balances juga penting. Misalnya, itu dapat mencakup “memeriksa silang keputusan algoritme oleh manusia dan sebaliknya. Dengan cara ini, mereka dapat meminta pertanggungjawaban satu sama lain dan membantu mengurangi bias,” kata Meskó..

Menjaga Manusia dalam Lingkaran

Berbicara tentang pemeriksaan dan keseimbangan, haruskah pasien khawatir bahwa mesin menggantikan penilaian dokter atau mendorong keputusan yang mungkin berbahaya karena ada bagian penting dari data yang hilang?

Trevedi menyebutkan bahwa pedoman penelitian AI sedang dalam pengembangan yang berfokus secara khusus pada aturan yang perlu dipertimbangkan saat menguji dan mengevaluasi model, terutama yang bersifat open source. Juga, FDA dan Departemen Kesehatan dan Layanan Kemanusiaan sedang mencoba untuk mengatur pengembangan dan validasi algoritma dengan tujuan meningkatkan akurasi, transparansi, dan keadilan.

Seperti kedokteran itu sendiri, AI bukanlah solusi satu ukuran untuk semua, dan mungkin pemeriksaan dan keseimbangan, evaluasi yang konsisten, dan upaya bersama untuk membangun kumpulan data yang beragam dan inklusif dapat mengatasi dan pada akhirnya membantu mengatasi kesenjangan kesehatan yang meluas.

Pada saat yang sama, “Saya pikir kita masih jauh dari sepenuhnya menghilangkan unsur manusia dan tidak melibatkan dokter dalam prosesnya,” kata Kelly Michelson, MD, MPH, direktur Pusat Bioetika dan Kemanusiaan Medis di Universitas Northwestern Fakultas Kedokteran Feinberg dan dokter jaga di Ann & Robert H. Lurie Children’s Hospital of Chicago.

“Sebenarnya ada beberapa peluang besar bagi AI untuk mengurangi kesenjangan,” katanya, juga mencatat bahwa AI bukan sekadar “satu hal besar ini”.

“AI berarti banyak hal berbeda di banyak tempat berbeda,” kata Michelson. “Dan cara penggunaannya berbeda. Penting untuk mengetahui bahwa masalah seputar bias dan dampak pada perbedaan kesehatan akan berbeda tergantung pada jenis AI yang Anda bicarakan.”

Menurut data statistik yang telah kami kumpulkan dari th. 2021 hingga sekarang, permainan judi togel sgp selamanya ramai di mainkan. Walau umumnya bandar terima sekurang-kurangnya bet sebesar 1.000, tapi kuantitas total taruhan prize sdy hari ini sanggup raih angka satu miliar setiap harinya. Tentu saja angka yang sangat fantastis sekali, perihal berikut terhitung di karenakan permainan ini sangatlah gampang dimainkan. Melakukan taruhan togel singapore hari ini termasuk sangatlah gampang dan tidak perlu ribet.