في-في لي، أستاذة جامعة ستانفورد والمعروفة على نطاق واسع بـ “العرابة للذكاء الاصطناعي”، قضت السنوات الثلاث الماضية تشهد شيئًا لم تتوقعه تمامًا: الانتشار السريع لتبني الذكاء الاصطناعي على نطاق واسع. في ظهورها الأخير في بودكاست، ناقشت في-في لي رؤاها حول مسار التكنولوجيا، والفرص المستقبلية، والمسؤوليات الحاسمة التي يجب على البشرية تحملها في تشكيل مستقبل الذكاء الاصطناعي. وجهة نظرها متوازنة بشكل ملحوظ — ليست متفائلة جدًا بالتكنولوجيا ولا متشائمة، بل ما تسميه “مركزية براغماتية”.
“لقد عملت في هذا المجال لمدة 25 عامًا،” عكست في-في لي، “لكن عمق واتساع تأثير الذكاء الاصطناعي الحالي لا يزال يدهشني.” السرعة التي انتقل بها الذكاء الاصطناعي من اهتمام أكاديمي محدود إلى تكنولوجيا على مستوى الحضارة غيرت طريقة تفكير العلماء ورجال الأعمال وصانعي السياسات حول مسار المجال وتداعياته الاجتماعية.
كيف انتقلت في-في لي من الفيزياء إلى ريادة الذكاء البصري
لم تكن مسيرة في-في لي نحو أن تصبح شخصية مركزية في تطوير الذكاء الاصطناعي مباشرة. نشأت في مدينة متواضعة في الصين كطفلة وحيدة، ووجدت عزاءها في الفيزياء — تخصص شعرت أنه لا حدود لطموحاته. سمحت لها الفيزياء بالتأمل في أصول الكون، والهياكل الجزيئية، والطبيعة الأساسية للمادة. كانت تلك الفضول الجريء نفسه هو الذي قادها في النهاية لطرح نوع مختلف من الأسئلة: ما هو الذكاء؟
بحلول منتصف الجامعة، تحولت تركيزاتها من العالم المادي إلى طبيعة الذكاء نفسه، والأهم من ذلك، كيف يمكن للآلات أن تصبح ذكية. أصبح هذا بمثابة “نجم الشمال” لها، يدفع أبحاثها لعقود من الزمن والتي ستعيد تشكيل مشهد الذكاء الاصطناعي.
وجاء الاختراق عندما بدأت في-في لي تستلهم من اللغويات وعلم النفس الإدراكي. درست كيف ينظم البشر المعرفة الدلالية وطبقت هذه الرؤى على التعرف البصري. أحد الاكتشافات الرئيسية كان إعادة النظر في تصنيف الأشياء. في قاموس تقليدي، تظهر كلمة “تفاحة” و"جهاز" بجانب بعضها، لكن في الواقع، التفاح والكمثرى أقرب بكثير — كلاهما فواكه. هذا الإدراك البسيط الظاهر قاد في-في لي إلى فهم أن الأنظمة الذكية تحتاج إلى فهم النطاق الواسع للمفاهيم البصرية كما يفعل البشر.
هذا الإدراك توج بمشروع تحولي. في أوائل العقد الأول من القرن الحالي، عندما كانت مجموعات البيانات الأكاديمية تحتوي عادة على أربع إلى ست فئات من الأجسام — وأقصاها عشرون، أنشأت في-في لي وفريقها ImageNet. كان المقياس غير مسبوق: 22000 فئة من الأجسام و15 مليون صورة موسومة. أصبح هذا مجموعة البيانات أساسًا لثورة التعلم العميق التي تلت ذلك، مما سرع بشكل جذري رؤية الحاسوب، وبالتالي تطور الذكاء الاصطناعي الحديث.
الحدود التالية: الذكاء المكاني وفهم ثلاثي الأبعاد
بينما يركز الكثير من حديث اليوم عن الذكاء الاصطناعي على النماذج اللغوية الكبيرة وقدراتها، حولت في-في لي انتباهها إلى ما تعتبره المرحلة الحاسمة التالية: الذكاء المكاني. من خلال شركتها World Labs، التي قدرت قيمتها بأكثر من مليار دولار بعد عام واحد من تأسيسها، تبتكر أنظمة ذكاء اصطناعي تتجاوز مجرد استقبال المعلومات السلبي.
“الذكاء البصري هو عن الرؤية،” أوضحت في-في لي. “لكن الذكاء في التطور لا ينفصل عن الفعل. نرى لأننا نتحرك، ونحرك بشكل أفضل لأننا نرى.” الذكاء المكاني، كما تعرفه، يمثل قدرة الذكاء الاصطناعي على فهم، وإدراك، والتفكير في، والتفاعل مع الفضاء ثلاثي الأبعاد — العالم المادي بكل تعقيده.
واحدة من تطبيقات هذا العمل هي Marble، نموذج يولد عوالم ثلاثية الأبعاد من أوامر بسيطة. يمكن للمستخدمين وصف مطبخ حديث أو تقديم صورة، ويقوم Marble بإنتاج بيئة ثلاثية الأبعاد مكتملة. تمتد التطبيقات عبر مجالات متعددة: يمكن للمصممين استخدامها في التصور، ومطورو الألعاب يمكنهم بسرعة إنشاء مشاهد، والروبوتات يمكنها الاستفادة منها في التدريب على المحاكاة. وفي التعليم، تصبح الإمكانيات أكثر إقناعًا — تخيل أن يدخل الطلاب داخل خلية افتراضية لمراقبة النواة، والإنزيمات، والأغشية، مما يجعل علم الأحياء المجرد ملموسًا وغامرًا.
الذكاء الاصطناعي سلاح ذو حدين: التوازن بين الإمكانات والمخاطر
تؤكد في-في لي باستمرار على أن الذكاء الاصطناعي هو تكنولوجيا ذات إمكانات مزدوجة. مثل النار — أحد اكتشافات البشرية الحاسمة — يمكن أن يخدم أغراضًا مفيدة جدًا أو يُساء استخدامه بطرق ضارة. الفرق ليس في التكنولوجيا نفسها، بل في خيارات البشر وحوكمتها.
عند مناقشة مخاطر الذكاء الفائق، تعترض في-في لي على التصور الذي ينسب الخطر الوجودي بشكل رئيسي للآلات. “ليس من المستحيل أن يشكل الذكاء الاصطناعي مخاطر،” اعترفت، “لكن إذا واجهت البشرية حقًا أزمة من هذا النوع، فسيكون ذلك بسبب أخطائنا نحن، وليس بسبب الآلات نفسها.” قلقها يركز بدلاً من ذلك على كيفية إدارة الأنظمة، وتنظيمها، وتنظيمها على المستوى العالمي.
تدعو في-في لي إلى رقابة ومسؤولية دولية، رغم أنها تعترف أن المعاهدات الرسمية والتوافق العالمي لا تزال في مهدها. وتؤكد أن العبء يقع على عاتق البشرية لضمان تطور التكنولوجيا واستخدامها بمسؤولية. تعكس وجهة نظرها إيمانها بأن الوكالة البشرية والحكم الجماعي يجب أن يظلوا في المقام الأول.
دمقرطة الذكاء الاصطناعي ومعالجة تحول الوظائف
رؤيتها الأساسية تتعلق بدمقرطة تكنولوجيا الذكاء الاصطناعي. تعبر عن قلقها من أن القدرات الأكثر تقدمًا تظل في يد عدد محدود من شركات التكنولوجيا الكبرى، ومعظمها أمريكية. “آمل أن تصبح هذه التكنولوجيا أكثر ديمقراطية،” قالت. “من يصنعها أو يمتلكها يجب أن يستخدمها بمسؤولية، ويجب أن يكون للجميع القدرة على التأثير في هذه التكنولوجيا.”
سؤال التوظيف أصبح أكثر إلحاحًا. كشف مارك بنيوف من Salesforce أن 50 بالمئة من وظائف خدمة العملاء في شركته قد تم تحويلها بالفعل إلى أنظمة ذكاء اصطناعي. هذا ليس استثناء — إنه اتجاه يتسارع. تضع في-في لي هذا في سياقه التاريخي. كل قفزة تكنولوجية كبرى — من محركات البخار إلى الكهرباء، والسيارات، والحواسيب — أدت إلى تحولات مؤلمة في أسواق العمل. ومع ذلك، كل واحدة منها أدت أيضًا إلى إعادة تشكيل الوظائف وظهور فئات جديدة من العمل.
الفرق الحاسم، في رأي في-في لي، هو أن معالجة هذا التحول تتطلب تنسيقًا بين ثلاثة كيانات: الأفراد يجب أن يلتزموا بالتعلم المستمر، والشركات يجب أن تستثمر في انتقال وتطوير مهارات القوى العاملة، والمجتمع يجب أن يضع هياكل وسياسات داعمة.
الطاقة، الاستدامة، والنهج البراغماتي
مع تزايد تطور أنظمة الذكاء الاصطناعي، تتصاعد متطلباتها الحاسوبية. أثارت انتقادات مثل جيري كابلان، رائد الأعمال، مخاوف من مراكز البيانات الضخمة التي تستهلك كميات غير مسبوقة من الكهرباء، مما قد يؤدي إلى كارثة بيئية. تعترف في-في لي بالمخاوف الحقيقية، لكنها ترفض التصور اليائس.
“لا أحد يقول إن هذه مراكز البيانات يجب أن تعمل على الوقود الأحفوري،” أشارت. بينما لا يمكن للطاقة المتجددة أن تلبي الطلب بالكامل حاليًا، فإن ذلك يمثل فرصة بدلاً من طريق مسدود. بناء مراكز بيانات ضخمة يجبر الدول على مراجعة سياساتها وبنيتها التحتية للطاقة، مما قد يحفز الاستثمار في ابتكار الطاقة المتجددة. ترى أن هذا جزء من التطور التكنولوجي الضروري لدعم تطوير الذكاء الاصطناعي بمسؤولية.
التعليم، الصمود، والعودة إلى القيم الدائمة
الأكثر لفتًا للانتباه في تأملات في-في لي هو تأكيدها على القيم التعليمية التقليدية والتنمية البشرية. كأم وكقائدة أكاديمية، تصف رؤيتها في تربية الأطفال ككائنات كاملة، وليس فقط كعمالة مستقبلية. “امنحهم الوكالة، والكرامة، والفضول، والقيم الأبدية مثل الصدق، والاجتهاد، والإبداع، والتفكير النقدي،” نصحت.
تؤثر تجربتها الشخصية على فلسفتها. وصلت إلى الولايات المتحدة في سن الخامسة عشرة، وكانت تفتقر إلى إجادة اللغة الإنجليزية، وعملت في مطعم صيني، وأدارت شركة تنظيف عائلتها لمدة سبع سنوات أثناء دراستها. تلك التجربة غرست فيها الصمود — وهي صفة تعتبرها ضرورية للبحث العلمي والازدهار الإنساني. “مسار العلم غير خطي،” عكست. “لا أحد لديه إجابات جاهزة. تحتاج إلى الصمود لتوجيهه.”
وأعربت عن قلق خاص بشأن المعلمين، الذين تعتبرهم “عمود فقري لمجتمعنا.” مع انتشار أدوات الذكاء الاصطناعي، السؤال ليس هل يجب على الطلاب تعلم علوم الحاسوب، بل هل يتم دعم المعلمين بشكل مناسب ومشاركتهم في هذا التحول. القلق وحده لا يحل شيئًا؛ المهم هو دمج التكنولوجيا بشكل مدروس في التعليم الذي يركز على الإنسان.
المبادرة البشرية في عصر الذكاء الاصطناعي
بالعودة إلى جوهر رسالتها، تؤكد في-في لي على ضرورة أن تظل المبادرة في يد الإنسان. المبادرة ليست مع الآلات، بل مع البشر — مع خياراتنا، وقيمنا، ومسؤوليتنا الجماعية.
بينما تواصل في-في لي عملها من خلال World Labs ومنصبها في ستانفورد، تجسد هذه الفلسفة في أفعالها. تدرك تأثيرها كريادية وباحثة رائدة في الذكاء الاصطناعي، وتفهم أن كل قرار يحمل عواقب. نهجها البراغماتي الوسطي — لا يتبنى التفاؤل التكنولوجي المفرط ولا يستسلم للمخاوف الديستوبية — يوفر إطارًا متزنًا للتنقل عبر التحولات العميقة القادمة.
السؤال الذي تطرحه على البشرية، كما تصوره في-في لي، ليس هل سيغير الذكاء الاصطناعي عالمنا، بل هل سنكون مهندسين متعمدين لهذا التغيير أو مراقبين سلبيين لقوى فشلنا في توجيهها. سنوات عملها تشير إلى أنها تراهن على نية الإنسان والمسؤولية الجماعية للانتصار.
شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
فاي-فاي لي عن أفق الذكاء الاصطناعي القادم: لماذا تعتبر الذكاء المكاني أكثر أهمية مما تظن
في-في لي، أستاذة جامعة ستانفورد والمعروفة على نطاق واسع بـ “العرابة للذكاء الاصطناعي”، قضت السنوات الثلاث الماضية تشهد شيئًا لم تتوقعه تمامًا: الانتشار السريع لتبني الذكاء الاصطناعي على نطاق واسع. في ظهورها الأخير في بودكاست، ناقشت في-في لي رؤاها حول مسار التكنولوجيا، والفرص المستقبلية، والمسؤوليات الحاسمة التي يجب على البشرية تحملها في تشكيل مستقبل الذكاء الاصطناعي. وجهة نظرها متوازنة بشكل ملحوظ — ليست متفائلة جدًا بالتكنولوجيا ولا متشائمة، بل ما تسميه “مركزية براغماتية”.
“لقد عملت في هذا المجال لمدة 25 عامًا،” عكست في-في لي، “لكن عمق واتساع تأثير الذكاء الاصطناعي الحالي لا يزال يدهشني.” السرعة التي انتقل بها الذكاء الاصطناعي من اهتمام أكاديمي محدود إلى تكنولوجيا على مستوى الحضارة غيرت طريقة تفكير العلماء ورجال الأعمال وصانعي السياسات حول مسار المجال وتداعياته الاجتماعية.
كيف انتقلت في-في لي من الفيزياء إلى ريادة الذكاء البصري
لم تكن مسيرة في-في لي نحو أن تصبح شخصية مركزية في تطوير الذكاء الاصطناعي مباشرة. نشأت في مدينة متواضعة في الصين كطفلة وحيدة، ووجدت عزاءها في الفيزياء — تخصص شعرت أنه لا حدود لطموحاته. سمحت لها الفيزياء بالتأمل في أصول الكون، والهياكل الجزيئية، والطبيعة الأساسية للمادة. كانت تلك الفضول الجريء نفسه هو الذي قادها في النهاية لطرح نوع مختلف من الأسئلة: ما هو الذكاء؟
بحلول منتصف الجامعة، تحولت تركيزاتها من العالم المادي إلى طبيعة الذكاء نفسه، والأهم من ذلك، كيف يمكن للآلات أن تصبح ذكية. أصبح هذا بمثابة “نجم الشمال” لها، يدفع أبحاثها لعقود من الزمن والتي ستعيد تشكيل مشهد الذكاء الاصطناعي.
وجاء الاختراق عندما بدأت في-في لي تستلهم من اللغويات وعلم النفس الإدراكي. درست كيف ينظم البشر المعرفة الدلالية وطبقت هذه الرؤى على التعرف البصري. أحد الاكتشافات الرئيسية كان إعادة النظر في تصنيف الأشياء. في قاموس تقليدي، تظهر كلمة “تفاحة” و"جهاز" بجانب بعضها، لكن في الواقع، التفاح والكمثرى أقرب بكثير — كلاهما فواكه. هذا الإدراك البسيط الظاهر قاد في-في لي إلى فهم أن الأنظمة الذكية تحتاج إلى فهم النطاق الواسع للمفاهيم البصرية كما يفعل البشر.
هذا الإدراك توج بمشروع تحولي. في أوائل العقد الأول من القرن الحالي، عندما كانت مجموعات البيانات الأكاديمية تحتوي عادة على أربع إلى ست فئات من الأجسام — وأقصاها عشرون، أنشأت في-في لي وفريقها ImageNet. كان المقياس غير مسبوق: 22000 فئة من الأجسام و15 مليون صورة موسومة. أصبح هذا مجموعة البيانات أساسًا لثورة التعلم العميق التي تلت ذلك، مما سرع بشكل جذري رؤية الحاسوب، وبالتالي تطور الذكاء الاصطناعي الحديث.
الحدود التالية: الذكاء المكاني وفهم ثلاثي الأبعاد
بينما يركز الكثير من حديث اليوم عن الذكاء الاصطناعي على النماذج اللغوية الكبيرة وقدراتها، حولت في-في لي انتباهها إلى ما تعتبره المرحلة الحاسمة التالية: الذكاء المكاني. من خلال شركتها World Labs، التي قدرت قيمتها بأكثر من مليار دولار بعد عام واحد من تأسيسها، تبتكر أنظمة ذكاء اصطناعي تتجاوز مجرد استقبال المعلومات السلبي.
“الذكاء البصري هو عن الرؤية،” أوضحت في-في لي. “لكن الذكاء في التطور لا ينفصل عن الفعل. نرى لأننا نتحرك، ونحرك بشكل أفضل لأننا نرى.” الذكاء المكاني، كما تعرفه، يمثل قدرة الذكاء الاصطناعي على فهم، وإدراك، والتفكير في، والتفاعل مع الفضاء ثلاثي الأبعاد — العالم المادي بكل تعقيده.
واحدة من تطبيقات هذا العمل هي Marble، نموذج يولد عوالم ثلاثية الأبعاد من أوامر بسيطة. يمكن للمستخدمين وصف مطبخ حديث أو تقديم صورة، ويقوم Marble بإنتاج بيئة ثلاثية الأبعاد مكتملة. تمتد التطبيقات عبر مجالات متعددة: يمكن للمصممين استخدامها في التصور، ومطورو الألعاب يمكنهم بسرعة إنشاء مشاهد، والروبوتات يمكنها الاستفادة منها في التدريب على المحاكاة. وفي التعليم، تصبح الإمكانيات أكثر إقناعًا — تخيل أن يدخل الطلاب داخل خلية افتراضية لمراقبة النواة، والإنزيمات، والأغشية، مما يجعل علم الأحياء المجرد ملموسًا وغامرًا.
الذكاء الاصطناعي سلاح ذو حدين: التوازن بين الإمكانات والمخاطر
تؤكد في-في لي باستمرار على أن الذكاء الاصطناعي هو تكنولوجيا ذات إمكانات مزدوجة. مثل النار — أحد اكتشافات البشرية الحاسمة — يمكن أن يخدم أغراضًا مفيدة جدًا أو يُساء استخدامه بطرق ضارة. الفرق ليس في التكنولوجيا نفسها، بل في خيارات البشر وحوكمتها.
عند مناقشة مخاطر الذكاء الفائق، تعترض في-في لي على التصور الذي ينسب الخطر الوجودي بشكل رئيسي للآلات. “ليس من المستحيل أن يشكل الذكاء الاصطناعي مخاطر،” اعترفت، “لكن إذا واجهت البشرية حقًا أزمة من هذا النوع، فسيكون ذلك بسبب أخطائنا نحن، وليس بسبب الآلات نفسها.” قلقها يركز بدلاً من ذلك على كيفية إدارة الأنظمة، وتنظيمها، وتنظيمها على المستوى العالمي.
تدعو في-في لي إلى رقابة ومسؤولية دولية، رغم أنها تعترف أن المعاهدات الرسمية والتوافق العالمي لا تزال في مهدها. وتؤكد أن العبء يقع على عاتق البشرية لضمان تطور التكنولوجيا واستخدامها بمسؤولية. تعكس وجهة نظرها إيمانها بأن الوكالة البشرية والحكم الجماعي يجب أن يظلوا في المقام الأول.
دمقرطة الذكاء الاصطناعي ومعالجة تحول الوظائف
رؤيتها الأساسية تتعلق بدمقرطة تكنولوجيا الذكاء الاصطناعي. تعبر عن قلقها من أن القدرات الأكثر تقدمًا تظل في يد عدد محدود من شركات التكنولوجيا الكبرى، ومعظمها أمريكية. “آمل أن تصبح هذه التكنولوجيا أكثر ديمقراطية،” قالت. “من يصنعها أو يمتلكها يجب أن يستخدمها بمسؤولية، ويجب أن يكون للجميع القدرة على التأثير في هذه التكنولوجيا.”
سؤال التوظيف أصبح أكثر إلحاحًا. كشف مارك بنيوف من Salesforce أن 50 بالمئة من وظائف خدمة العملاء في شركته قد تم تحويلها بالفعل إلى أنظمة ذكاء اصطناعي. هذا ليس استثناء — إنه اتجاه يتسارع. تضع في-في لي هذا في سياقه التاريخي. كل قفزة تكنولوجية كبرى — من محركات البخار إلى الكهرباء، والسيارات، والحواسيب — أدت إلى تحولات مؤلمة في أسواق العمل. ومع ذلك، كل واحدة منها أدت أيضًا إلى إعادة تشكيل الوظائف وظهور فئات جديدة من العمل.
الفرق الحاسم، في رأي في-في لي، هو أن معالجة هذا التحول تتطلب تنسيقًا بين ثلاثة كيانات: الأفراد يجب أن يلتزموا بالتعلم المستمر، والشركات يجب أن تستثمر في انتقال وتطوير مهارات القوى العاملة، والمجتمع يجب أن يضع هياكل وسياسات داعمة.
الطاقة، الاستدامة، والنهج البراغماتي
مع تزايد تطور أنظمة الذكاء الاصطناعي، تتصاعد متطلباتها الحاسوبية. أثارت انتقادات مثل جيري كابلان، رائد الأعمال، مخاوف من مراكز البيانات الضخمة التي تستهلك كميات غير مسبوقة من الكهرباء، مما قد يؤدي إلى كارثة بيئية. تعترف في-في لي بالمخاوف الحقيقية، لكنها ترفض التصور اليائس.
“لا أحد يقول إن هذه مراكز البيانات يجب أن تعمل على الوقود الأحفوري،” أشارت. بينما لا يمكن للطاقة المتجددة أن تلبي الطلب بالكامل حاليًا، فإن ذلك يمثل فرصة بدلاً من طريق مسدود. بناء مراكز بيانات ضخمة يجبر الدول على مراجعة سياساتها وبنيتها التحتية للطاقة، مما قد يحفز الاستثمار في ابتكار الطاقة المتجددة. ترى أن هذا جزء من التطور التكنولوجي الضروري لدعم تطوير الذكاء الاصطناعي بمسؤولية.
التعليم، الصمود، والعودة إلى القيم الدائمة
الأكثر لفتًا للانتباه في تأملات في-في لي هو تأكيدها على القيم التعليمية التقليدية والتنمية البشرية. كأم وكقائدة أكاديمية، تصف رؤيتها في تربية الأطفال ككائنات كاملة، وليس فقط كعمالة مستقبلية. “امنحهم الوكالة، والكرامة، والفضول، والقيم الأبدية مثل الصدق، والاجتهاد، والإبداع، والتفكير النقدي،” نصحت.
تؤثر تجربتها الشخصية على فلسفتها. وصلت إلى الولايات المتحدة في سن الخامسة عشرة، وكانت تفتقر إلى إجادة اللغة الإنجليزية، وعملت في مطعم صيني، وأدارت شركة تنظيف عائلتها لمدة سبع سنوات أثناء دراستها. تلك التجربة غرست فيها الصمود — وهي صفة تعتبرها ضرورية للبحث العلمي والازدهار الإنساني. “مسار العلم غير خطي،” عكست. “لا أحد لديه إجابات جاهزة. تحتاج إلى الصمود لتوجيهه.”
وأعربت عن قلق خاص بشأن المعلمين، الذين تعتبرهم “عمود فقري لمجتمعنا.” مع انتشار أدوات الذكاء الاصطناعي، السؤال ليس هل يجب على الطلاب تعلم علوم الحاسوب، بل هل يتم دعم المعلمين بشكل مناسب ومشاركتهم في هذا التحول. القلق وحده لا يحل شيئًا؛ المهم هو دمج التكنولوجيا بشكل مدروس في التعليم الذي يركز على الإنسان.
المبادرة البشرية في عصر الذكاء الاصطناعي
بالعودة إلى جوهر رسالتها، تؤكد في-في لي على ضرورة أن تظل المبادرة في يد الإنسان. المبادرة ليست مع الآلات، بل مع البشر — مع خياراتنا، وقيمنا، ومسؤوليتنا الجماعية.
بينما تواصل في-في لي عملها من خلال World Labs ومنصبها في ستانفورد، تجسد هذه الفلسفة في أفعالها. تدرك تأثيرها كريادية وباحثة رائدة في الذكاء الاصطناعي، وتفهم أن كل قرار يحمل عواقب. نهجها البراغماتي الوسطي — لا يتبنى التفاؤل التكنولوجي المفرط ولا يستسلم للمخاوف الديستوبية — يوفر إطارًا متزنًا للتنقل عبر التحولات العميقة القادمة.
السؤال الذي تطرحه على البشرية، كما تصوره في-في لي، ليس هل سيغير الذكاء الاصطناعي عالمنا، بل هل سنكون مهندسين متعمدين لهذا التغيير أو مراقبين سلبيين لقوى فشلنا في توجيهها. سنوات عملها تشير إلى أنها تراهن على نية الإنسان والمسؤولية الجماعية للانتصار.