تقرير يحذر: الذكاء الاصطناعي قد يحول صوت الإنسان إلى أداة لانتهاك الخصوصية

كتبت نور عبدالقادر
الصوت يحمل أسرارًا أكثر مما نتصور
حذر تقرير نشره موقع Live Science من أن صوت الإنسان قد يصبح وسيلة خطيرة لانتهاك الخصوصية، في ظل التطور السريع لتقنيات الذكاء الاصطناعي القادرة على تحليل الكلام واستخلاص معلومات شخصية شديدة الحساسية دون علم أصحابها.
وأشار التقرير إلى أن الصوت البشري يتضمن إشارات متعددة يمكن أن تكشف مستوى التعليم، والحالة العاطفية، والمهنة، بل وحتى الوضع المالي. لكن الخطر الحقيقي لا يكمن في قدرة البشر على ملاحظة هذه الإشارات، بل في قدرة الخوارزميات على تحليل كميات هائلة من البيانات بسرعة ودقة تفوق الإنسان بمراحل.
خوارزميات تكشف التوجهات السياسية والحالات الصحية
وفق دراسة نُشرت في 19 نوفمبر 2025 بدورية Proceedings of the IEEE، يمكن لأنماط التنغيم واختيار الكلمات أن تكشف عن توجهات سياسية، أو مؤشرات لحالات صحية وطبية، إضافة إلى معلومات أخرى بالغة الحساسية.
وتشير الأبحاث إلى أن تقنيات تحويل الصوت إلى نص قد تُستخدم في ممارسات ضارة، مثل التسعير التمييزي، أو التصنيف غير العادل، أو حتى المضايقات والملاحقة. فبينما يستطيع الإنسان ملاحظة علامات واضحة كالتوتر أو السعادة، تستطيع الأنظمة الذكية التقاط تفاصيل دقيقة يصعب على البشر إدراكها.
بين الاستخدام الأخلاقي والمخاطر الخفية
أوضح باحثون أن بعض التطبيقات، مثل الكشف التلقائي عن الغضب أو السلوك السام في الألعاب الإلكترونية ومراكز الاتصال، تُعد استخدامات ذات أساس أخلاقي واضح. إلا أن توسع الشركات في واجهات التخاطب الصوتي، التي تُعدل أسلوب ردها ليتناسب مع المتحدث، يفتح الباب أمام استخدامات أكثر إثارة للجدل.
ويطرح التقرير تساؤلاً مقلقًا: إذا استطاعت شركة تأمين استغلال بيانات الصوت لتحديد أسعار تغطية أعلى لبعض العملاء بناءً على معلومات تستخلصها خوارزميات الذكاء الاصطناعي، فما الذي سيمنعها من ذلك؟
أصواتنا… بصمة رقمية دائمة
يشدد التقرير على أن أصواتنا تُسجل في عدد لا يُحصى من المنصات، سواء عبر الرسائل الصوتية أو المكالمات المسجلة «لأغراض التدريب وضمان الجودة»، ما يُكوّن أرشيفًا رقميًا ضخمًا يعادل في حجمه بصمتنا الرقمية المتمثلة في أنشطتنا ومشترياتنا عبر الإنترنت.
ويرى الباحثون أن أدوات تعلم الآلة القادرة على إجراء تحليلات تنتهك الخصوصية متاحة بالفعل، وأن إساءة استخدامها ليست احتمالًا بعيدًا، ما يمنح الشركات الكبرى أو الجهات التي تمارس المراقبة أفضلية واضحة إذا لم يُواجه الأمر بوعي وتشريعات مناسبة.
كيف يمكن حماية الصوت من الاستغلال؟
يقترح التقرير عدة حلول هندسية، تبدأ بقياس نوعية المعلومات التي يمكن استخراجها من الصوت بدقة، باعتبار ذلك خطوة أساسية لتطوير أدوات حماية فعالة.
وقد أدى هذا التوجه إلى إنشاء مجموعة اهتمام بحثية تُعنى بأمن وخصوصية اتصالات الكلام، بهدف وضع إطار علمي لقياس حجم المعلومات الحساسة في الكلام وتقييم مخاطرها.
كما يقترح الباحثون تقليل كمية البيانات المنقولة إلى الحد الأدنى اللازم لإتمام المعاملات، مثل تحويل الكلام إلى نص لاستخراج المعلومات الأساسية فقط دون الاحتفاظ بتسجيل المكالمة، أو إرسال تدفق نصي مباشر بدلاً من الصوت الكامل.
ورغم الصورة القاتمة، يؤكد الباحثون أن التقنية تحمل إمكانات إيجابية كبيرة إذا وُضعت لها أطر تنظيمية وأخلاقية واضحة، مع تحديد دقيق لنوع المعلومات المستخرجة، وكيفية استخدامها، والهدف من توظيفها.



