Hakikat “Kekurangan Tadbir Urus”: Jurang Antara Matlamat dan Cara
Kajian menunjukkan bahawa 80% syarikat yang menggunakan AI generatif mengalami “kekurangan tadbir urus”. Angka ini jelas menunjukkan bahawa banyak organisasi memperkenalkan AI sebagai “alat ajaib” tetapi mengabaikan “reka bentuk” tentang cara mengintegrasikannya ke dalam perniagaan. Tadbir urus bukan sekadar mencipta peraturan dan memantau. Ia adalah reka bentuk pengurusan peringkat tinggi itu sendiri – bagaimana untuk “menterjemah” dan “menempatkan” teknologi baru iaitu AI untuk mencapai “perniagaan yang ingin dilakukan” oleh syarikat. Kekurangan 80% ini adalah bukti bahawa proses reka bentuk ini telah tertinggal.
Kesilapan Memahami Tadbir Urus AI: Objek Pengurusan atau Objek Reka Bentuk?
Banyak syarikat, terutamanya PKS yang mementingkan kelajuan, cenderung melihat tadbir urus AI sebagai isu “pengurusan risiko” atau “pematuhan piawaian”. Mereka hanya menumpukan pada membuat peraturan seperti “jangan masukkan maklumat sulit syarikat” atau “manusia mesti menyemak semua output”. Ini perlu, tetapi tidak mencukupi. Seperti yang dinyatakan dalam artikel JBpress, kemungkinan tingkah laku tidak dijangka akibat interaksi antara AI, atau tingkah laku membimbangkan seperti AI berbohong untuk melindungi “rakan sepasukan”, mempunyai kerumitan yang tidak dapat dicegah sepenuhnya oleh peraturan operasi mudah.
Persoalannya di sini adalah sama ada melihat AI sebagai “objek berbahaya yang perlu diurus” atau sebagai “objek reka bentuk untuk mencapai matlamat perniagaan”. Dengan perspektif kedua, cabaran tadbir urus berubah sepenuhnya. Matlamatnya bukan “menghapuskan pelanggaran sifar” tetapi “mendapatkan nilai perniagaan maksimum daripada AI dalam lingkungan risiko yang boleh diterima”. Seperti yang dilaporkan mengenai kegagalan tadbir urus kumpulan KDDI yang menunjukkan kewujudan “kawasan larangan”, tadbir urus gagal berfungsi apabila teknologi (dalam kes ini, AI) menjadi “kawasan larangan yang tidak disentuh kerana tidak difahami”.
Menerapkan “4 Elemen Penggunaan AI yang Selamat” ke dalam Reka Bentuk
Artikel ITmedia menyenaraikan 4 elemen untuk penggunaan AI yang selamat: “Dasar”, “Struktur Tanggungjawab”, “Pendidikan”, dan “Langkah Teknikal”. Ini adalah rangka kerja yang baik, tetapi jika PKS memperkenalkannya secara terus sebagai manual, ia hanya akan menjadi formaliti. Perkara penting adalah mereka bentuknya secara terbalik bermula dari “matlamat perniagaan” syarikat sendiri.
Sebagai contoh, katakan ada matlamat perniagaan “ingin mengurangkan masa tindak balas pertanyaan pelanggan sebanyak 30%”. Reka bentuk pengenalan AI bermula dari sini.
- Dasar: Jelas tentang matlamat dan peranan, contohnya: “Bertujuan untuk meningkatkan kecekapan tindak balas pertanyaan, AI digunakan secara terhad untuk tindak balas awal dan pengekstrakan maklumat. Keputusan akhir dan pengesahan maklumat pelanggan dilakukan oleh manusia.”
- Struktur Tanggungjawab: Reka bentuk tanggungjawab dan kuasa bersama, contohnya: Pengarah jualan yang mempromosikan pengenalan bertanggungjawab ke atas aduan pelanggan akibat kesilapan output AI. Pasukan sokongan pelanggan bertanggungjawab menyemak output harian.
- Pendidikan: Sediakan ruang untuk pasukan membincangkan “bagaimana mencapai matlamat perniagaan menggunakan AI”, bukan “bagaimana menggunakan AI”. Juga jelaskan laluan laporan apabila menemui kesilapan AI di sini.
- Langkah Teknikal: Pertimbangkan reka bentuk sistem yang tidak mengalirkan data pelanggan yang sangat sulit kepada AI, dan memperkenalkan alat untuk memeriksa nada respons sesuai dengan nilai jenama syarikat.
Dengan cara ini, 4 elemen hanyalah “alat pelaksanaan” yang terbit dari matlamat. Jika reka bentuk bermula dari alat, akan terhasil AI yang mempunyai peraturan tetapi tidak digunakan oleh sesiapa.
Langkah Pertama “Reka Bentuk Tadbir Urus AI” yang Boleh Dimulakan PKS dari Hari Ini
Tidak realistik untuk mengambil “Ketua Pegawai Risiko (CRO)” sepenuh masa dari sektor swasta seperti yang dilakukan syarikat besar. Namun, reka bentuk yang lebih asas dengan menggunakan kelincahan PKS adalah mungkin.
Langkah 1: Penyataan Matlamat dan Definisi “Risiko Boleh Diterima”
Pertama, tulis dalam satu ayat apa yang ingin dicapai dengan AI. “Ingin meningkatkan jualan” terlalu kabur. Perlu kekhususan seperti “mengurangkan beban menulis teks e-mel silang jualan kepada pelanggan sedia ada, dan meningkatkan masa untuk pembangunan pelanggan baru sebanyak 5 jam seminggu.”
Seterusnya, bincangkan “sejauh mana risiko boleh diterima” untuk mencapai matlamat tersebut. Contohnya, keputusan seperti “10% teks e-mel yang dicipta oleh AI boleh dihantar tanpa semakan manusia, tetapi maklumat produk baru mesti disemak sepenuhnya.” Risiko bukan 0 atau 100, tetapi kuantiti berterusan dari 1 hingga 99. Jika menuntut risiko 0, kos akan membengkak dan sistem yang tidak berguna akan terhasil.
Langkah 2: Senaraikan Pilihan dan Sertakan “Kebolehunduran”
Pengenalan AI kelihatan seperti satu pilihan besar, tetapi sebenarnya adalah pengumpulan banyak pilihan kecil. Sentiasa pertimbangkan sekurang-kurangnya 3 pilihan utama bersama-sama.
- Cadangan A: Perkenalkan AI umum (seperti ChatGPT) melalui langganan, dan laksanakan pendidikan dalaman sepenuhnya.
- Cadangan B: Beli lesen untuk alat khusus yang fokus pada tugas tertentu (contoh: ringkasan dokumen teknikal).
- Cadangan C: Mulakan sebagai projek perintis 3 bulan, mencuba Cadangan A dengan satu pasukan, dan tetapkan kriteria penilaian untuk pengesahan.
Banyak syarikat berfikir dalam pilihan A atau B, dan jika gagal, membuat kesimpulan “AI tidak boleh digunakan”. Cadangan C seperti “pilihan dengan kebolehbalikan tinggi” sangat berkesan. Dalam projek perintis, tetapkan kriteria kejayaan terlebih dahulu seperti “masa menulis teks dikurangkan 20%, dan ungkapan yang mengelirukan pelanggan kurang dari 1 kes sebulan.” Jika ini tidak dipenuhi, hentikan dengan tegas. Menyertakan “kebolehunduran” ini dalam reka bentuk dari awal adalah reka bentuk risiko yang paling kukuh.
Langkah 3: Gunakan Pakar sebagai “Penterjemah”
Jangan tanya pakar undang-undang atau IT “Adakah selamat memperkenalkan AI?”. Mereka bukan “pembuat keputusan” tetapi “penterjemah”. Tanyakan, “Apakah syarat yang perlu dipenuhi dari segi undang-undang dan teknikal untuk mencapai matlamat ‘menggunakan AI untuk tindak balas awal pertanyaan pelanggan’?” Peranan pakar adalah menterjemah matlamat perniagaan anda ke dalam bahasa undang-undang dan teknikal, dan mencadangkan bentuk yang boleh dilaksanakan. Maklumat “boleh dilaksanakan jika memenuhi syarat tertentu”, bukan kesimpulan “tidak boleh”, adalah bahan yang diperlukan untuk reka bentuk.
Jangan Cipta “Kawasan Larangan”, Fikirkan Pengoptimuman Keseluruhan
Seperti yang ditunjukkan oleh kes KDDI dan reformasi Hospital Universiti Tokyo, kegagalan tadbir urus berlaku apabila wujud “kawasan larangan” yang tidak disentuh kerana “tidak difahami”. AI kini sedang menjadi “kawasan larangan” itu di banyak syarikat. Semakin kompleks teknologi, pengurusan cenderung “menyerahkan”. Tetapi ini memutuskan hubungan antara matlamat dan cara.
Keputusan kajian tentang 80% kekurangan tadbir urus AI generatif adalah amaran dan juga peluang. Semasa syarikat besar bergelut dengan pembuatan peraturan yang kaku, PKS boleh menggunakan kelincahan mereka untuk melaksanakan tadbir urus yang lebih asas dan kuat iaitu “reka bentuk AI berasaskan matlamat perniagaan” lebih awal. Ini bukan tentang “menjinakkan” AI, tetapi memikirkan bagaimana untuk mereka bentuk dan mengawal “enjin baru” untuk menjalankan “kereta” iaitu perniagaan syarikat dengan lebih baik. Langkah pertama bukan pelan besar, tetapi bermula dengan menyatakan satu matlamat perniagaan kecil, dan “menterjemah” teknologi AI ke arahnya.


コメント