totosgp

Akankah Data Buruk Melemahkan Teknologi Baik?

18 Mei 2022 – Bayangkan berjalan ke Perpustakaan Kongres, dengan jutaan bukunya, dan memiliki tujuan untuk membaca semuanya. Tidak mungkin, kan? Bahkan jika Anda dapat membaca setiap kata dari setiap karya, Anda tidak akan dapat mengingat atau memahami semuanya, bahkan jika Anda menghabiskan seumur hidup untuk mencoba.

Sekarang katakanlah Anda entah bagaimana memiliki otak bertenaga super yang mampu membaca dan memahami semua informasi itu. Anda masih akan memiliki masalah: Anda tidak akan tahu apa bukan tercakup dalam buku-buku itu – pertanyaan apa yang gagal mereka jawab, pengalaman siapa yang mereka tinggalkan.

Demikian pula, para peneliti saat ini memiliki jumlah data yang mengejutkan untuk disaring. Semua studi peer-review di dunia berisi lebih dari 34 juta kutipan. Jutaan kumpulan data lainnya mengeksplorasi bagaimana hal-hal seperti pemeriksaan darah, riwayat medis dan keluarga, genetika, serta sifat sosial dan ekonomi memengaruhi hasil pasien.

Kecerdasan buatan memungkinkan kita menggunakan lebih banyak bahan ini daripada sebelumnya. Model yang muncul dapat dengan cepat dan akurat mengatur sejumlah besar data, memprediksi hasil pasien yang potensial dan membantu dokter membuat panggilan tentang perawatan atau perawatan pencegahan.

Matematika tingkat lanjut sangat menjanjikan. Beberapa algoritma – instruksi untuk memecahkan masalah – dapat mendiagnosis kanker payudara dengan lebih akurat daripada ahli patologi. Alat AI lainnya sudah digunakan dalam pengaturan medis, memungkinkan dokter untuk lebih cepat mencari riwayat medis pasien atau meningkatkan kemampuan mereka untuk menganalisis gambar radiologi.

Tetapi beberapa ahli di bidang kecerdasan buatan dalam kedokteran menyarankan bahwa sementara manfaatnya tampak jelas, bias yang kurang diperhatikan dapat merusak teknologi ini. Bahkan, mereka memperingatkan bahwa bias dapat menyebabkan pengambilan keputusan yang tidak efektif atau bahkan berbahaya dalam perawatan pasien.

Alat Baru, Bias yang Sama?

Sementara banyak orang mengasosiasikan “bias” dengan prasangka pribadi, etnis, atau ras, didefinisikan secara luas, bias adalah kecenderungan untuk condong ke arah tertentu, baik mendukung atau menentang hal tertentu.

Dalam pengertian statistik, bias terjadi ketika data tidak sepenuhnya atau akurat mewakili populasi yang dimaksudkan untuk dimodelkan. Hal ini dapat terjadi karena memiliki data yang buruk di awal, atau dapat terjadi ketika data dari satu populasi diterapkan ke populasi lain secara tidak sengaja.

Kedua jenis bias – statistik dan ras/etnis – ada dalam literatur medis. Beberapa populasi telah dipelajari lebih lanjut, sementara yang lain kurang terwakili. Ini menimbulkan pertanyaan: Jika kita membangun model AI dari informasi yang ada, apakah kita hanya meneruskan masalah lama ke teknologi baru?

“Yah, itu pasti menjadi perhatian,” kata David M. Kent, MD, direktur Predictive Analytics and Comparative Effectiveness Center di Tufts Medical Center.

Dalam sebuah studi baru, Kent dan tim peneliti memeriksa 104 model yang memprediksi penyakit jantung – model yang dirancang untuk membantu dokter memutuskan bagaimana mencegah kondisi tersebut. Para peneliti ingin mengetahui apakah model, yang telah dilakukan secara akurat sebelumnya, akan bekerja dengan baik ketika diuji pada satu set pasien baru.

Temuan mereka?

Model “melakukan lebih buruk dari yang diharapkan orang,” kata Kent.

Mereka tidak selalu dapat membedakan pasien berisiko tinggi dari pasien berisiko rendah. Kadang-kadang, alat tersebut terlalu berlebihan atau meremehkan risiko penyakit pasien. Yang mengkhawatirkan, sebagian besar model berpotensi menyebabkan kerusakan jika digunakan dalam pengaturan klinis nyata.

Mengapa ada perbedaan dalam performa model dari pengujian aslinya, dibandingkan dengan sekarang? Bias statistik.

“Model prediktif tidak menggeneralisasi sebaik orang mengira mereka menggeneralisasi,” kata Kent.

Saat Anda memindahkan model dari satu database ke database lainnya, atau saat banyak hal berubah dari waktu ke waktu (dari satu dekade ke dekade lainnya) atau ruang (satu kota ke kota lain), model gagal menangkap perbedaan tersebut.

Itu menciptakan bias statistik. Akibatnya, model tidak lagi mewakili populasi pasien baru, dan mungkin tidak berfungsi dengan baik.

Itu tidak berarti AI tidak boleh digunakan dalam perawatan kesehatan, kata Kent. Tapi itu menunjukkan mengapa pengawasan manusia begitu penting.

“Studi ini tidak menunjukkan bahwa model ini sangat buruk,” katanya. “Ini menyoroti kerentanan umum model yang mencoba memprediksi risiko absolut. Ini menunjukkan bahwa diperlukan audit dan pembaruan model yang lebih baik.”

Tetapi bahkan pengawasan manusia memiliki batasnya, seperti yang diperingatkan oleh para peneliti dalam makalah baru yang mendukung proses standar. Tanpa kerangka seperti itu, kita hanya dapat menemukan bias yang kita pikirkan untuk dicari, catat mereka. Sekali lagi, kita tidak tahu apa yang tidak kita ketahui.

Bias dalam ‘Kotak Hitam’

Ras adalah campuran atribut fisik, perilaku, dan budaya. Ini adalah variabel penting dalam perawatan kesehatan. Tetapi ras adalah konsep yang rumit, dan masalah dapat muncul saat menggunakan ras dalam algoritme prediktif. Meskipun ada perbedaan kesehatan di antara kelompok ras, tidak dapat diasumsikan bahwa semua orang dalam suatu kelompok akan memiliki hasil kesehatan yang sama.

David S. Jones, MD, PhD, seorang profesor budaya dan kedokteran di Universitas Harvard, dan rekan penulis Tersembunyi di Pandangan Biasa – Mempertimbangkan Kembali Penggunaan Koreksi Ras dalam Algoritmamengatakan bahwa “banyak alat ini [analog algorithms] tampaknya mengarahkan sumber daya perawatan kesehatan kepada orang kulit putih.”

Sekitar waktu yang sama, bias serupa dalam alat AI sedang diidentifikasi oleh peneliti Ziad Obermeyer, MD, dan Eric Topol, MD.

Kurangnya keragaman dalam studi klinis yang mempengaruhi perawatan pasien telah lama menjadi perhatian. Kekhawatiran sekarang, kata Jones, adalah bahwa menggunakan studi ini untuk membangun model prediktif tidak hanya meneruskan bias tersebut, tetapi juga membuatnya lebih kabur dan lebih sulit dideteksi.

Sebelum awal AI, algoritma analog adalah satu-satunya pilihan klinis. Jenis model prediktif ini dihitung dengan tangan, bukan otomatis.

“Saat menggunakan model analog,” kata Jones, “seseorang dapat dengan mudah melihat informasi dan tahu persis informasi pasien apa, seperti ras, yang telah disertakan atau tidak.”

Sekarang, dengan alat pembelajaran mesin, algoritme mungkin bersifat eksklusif – artinya data disembunyikan dari pengguna dan tidak dapat diubah. Ini adalah “kotak hitam.” Itu masalah karena pengguna, penyedia perawatan, mungkin tidak tahu informasi pasien apa yang disertakan, atau bagaimana informasi itu dapat memengaruhi rekomendasi AI.

“Jika kita menggunakan ras dalam pengobatan, itu harus benar-benar transparan sehingga kita dapat memahami dan membuat penilaian yang masuk akal tentang apakah penggunaannya sesuai,” kata Jones. “Pertanyaan yang perlu dijawab adalah: Bagaimana, dan di mana, menggunakan label ras sehingga mereka berbuat baik tanpa merugikan.”

Haruskah Anda Khawatir Tentang AI dalam Perawatan Klinis?

Terlepas dari banjir penelitian AI, sebagian besar model klinis belum diadopsi dalam perawatan kehidupan nyata. Tetapi jika Anda khawatir tentang penggunaan teknologi atau ras penyedia Anda, Jones menyarankan untuk bersikap proaktif. Anda dapat bertanya kepada penyedia: “Apakah ada cara di mana perlakuan Anda terhadap saya didasarkan pada pemahaman Anda tentang ras atau etnis saya?” Hal ini dapat membuka dialog tentang penyedia membuat keputusan.

Sementara itu, konsensus di antara para ahli adalah bahwa masalah yang terkait dengan bias statistik dan rasial dalam kecerdasan buatan dalam kedokteran memang ada dan perlu ditangani sebelum alat tersebut digunakan secara luas.

“Bahaya sebenarnya adalah memiliki banyak uang yang dituangkan ke perusahaan baru yang menciptakan model prediksi yang berada di bawah tekanan untuk kebaikan [return on investment],” kata Kent. “Itu bisa menciptakan konflik untuk menyebarkan model yang mungkin tidak siap atau tidak cukup teruji, yang mungkin membuat kualitas perawatan lebih buruk daripada lebih baik.”

Menurut information statistik yang sudah kami kumpulkan dari tahun 2021 hingga sekarang, permainan judi togel sgp selamanya ramai di mainkan. Walau umumnya bandar terima sekurang-kurangnya bet sebesar 1.000, tetapi jumlah keseluruhan taruhan unitogel bisa menggapai angka satu miliar setiap harinya. Tentu saja angka yang sangat mengagumkan sekali, hal tersebut terhitung di karenakan permainan ini sangatlah gampang dimainkan. Melakukan taruhan togel singapore hari ini termasuk sangatlah enteng dan tidak harus ribet.