تواجه أداة التفريغ الصوتي "Whisper" التي طورتها شركة OpenAI انتقادات متزايدة بسبب إقدامها على "اختلاق" نصوص غير حقيقية ضمن تفريغ التسجيلات الصوتية، مما يشكل خطرًا حقيقيًا على بعض المؤسسات التي تعتمد على هذه التقنية، مثل المستشفيات والمراكز الطبية.
أفاد عدد من المطورين والباحثين الأكاديميين بأن الأداة تُدرج معلومات غير دقيقة، تتضمن أدوية وهمية وتعليقات تحمل طابعًا عنصريًا، بالإضافة إلى عبارات تتضمن عنفًا. على الرغم من هذه التحذيرات، حققت النسخة الأخيرة من الأداة نحو أربعة ملايين واثنين من التحميلات عبر منصة HuggingFace المفتوحة المصدر خلال الشهر الماضي، كما تم دمج الأداة في منصات الحوسبة السحابية لشركتي أوراكل ومايكروسوفت، بالإضافة إلى بعض إصدارات ChatGPT.
تشير الأدلة التي جمعتها جامعات وفرق بحثية مختصة إلى أن هذه المشكلات ليست حالات فردية، بل هي منتشرة على نطاق واسع. على سبيل المثال، رصد باحث من جامعة ميشيغان نصوصًا مُختلَقة في ثمانية من كل عشرة تسجيلات لاجتماعات عامة. وفي دراسة أخرى، وثّق علماء حاسوب مئة وسبع وثمانين حالة "هلوسة" عبر تحليل أكثر من ثلاثة عشر ألف تسجيل صوتي، بينما عُثر على هذه الاختلاقات في التفريغ النصي لنحو ستة وعشرين ألف تسجيل.
تزداد خطورة هذه الأخطاء في المجال الطبي بشكل خاص، إذ أفادت التقارير بأن شركة تُدعى "نابلا" تعتمد على أداة Whisper لتفريغ التسجيلات الطبية، حيث تقدم خدماتها لأكثر من ثلاثين ألف طبيب وأربعين نظامًا صحيًا، وقد استخدمت الأداة في الشركة لتفريغ ما يقارب سبعة ملايين استشارة طبية حتى الآن.
ورغم وجود قلق بشأن دقة النصوص المُفرّغة، لا توجد حتى الآن آلية موثوقة للتحقق من صحتها، مما دفع الشركة إلى حذف البيانات لحماية الخصوصية. وفقًا لما أكده المسؤولون في الشركة، يتعين على الأطباء مراجعة النصوص وتحريرها بشكل سريع، ولكن هذا الأمر يضع عبئًا إضافيًا على الطواقم الطبية ويثير تساؤلات حول إمكانية تطبيق هذه الإجراءات بكفاءة.
تظل الدقة التامة في تفريغ التسجيلات الصوتية هاجسًا رئيسيًا، خاصةً في مجالات حساسة مثل المجال الطبي، حيث قد يؤدي اختلاق النصوص إلى تداعيات خطرة على القرارات العلاجية.
0 تعليق