عقارات واستثمار

تدرس صناعة العناوين مخاطر ومكافآت الذكاء الاصطناعي


كولورادو سبرينغز، كولورادو – مع استمرار مبيعات المنازل القائمة في الانخفاض وارتفاع معدلات الرهن العقاري إلى أعلى من أي وقت مضى، مما أدى إلى القضاء على أي أمل في معاملات إعادة التمويل، فإن صناعة التأمين على ملكية العقارات تتضاعف من اعتمادها على التكنولوجيا. في المقدمة، الذكاء الاصطناعي، أو AI.

في ال جمعية ملكية الأراضي الأمريكية في مؤتمر ALTA One السنوي، قام العديد من خبراء ومحللي صناعة العناوين بتحليل الضجيج وحالات الاستخدام والمخاطر التي يفرضها استخدام الذكاء الاصطناعي.

“لقد نجح الذكاء الاصطناعي في تحقيق ذلك حتى نتمكن جميعًا، بغض النظر عن حجم أعمالنا الكبيرة أو الصغيرة، من العمل بشكل كبير” سام تريمبل، نائب الرئيس في شركة WFG“، أخبر الحضور في ALTA One.

من خلال استخدام الذكاء الاصطناعي، يمكن لشركات العناوين تقليل مقدار الوقت الذي يستغرقه إكمال المهام مثل إنشاء ضمانات تسويقية، بما في ذلك النص والصوت والفيديو بشكل كبير.

خلال عرض تقديمي مدته ساعة واحدة، تحدث تريمبل مع بيل سفوبودا، المؤسس المشارك لـ CloseSimple، أنشأ شركة ذات عنوان مزيف لـ Snoop Dogg، تسمى سنوب المستوطنات، بالإضافة إلى مجموعة متنوعة من المواد التسويقية، بما في ذلك 52 مشاركة اقتباسات ملهمة، وبيان المهمة، والقيم الأساسية، وموقعًا إلكترونيًا.

استخدمت شركتا Svoboda وTrimble مجموعة متنوعة من تطبيقات الذكاء الاصطناعي المجانية أو منخفضة التكلفة، بما في ذلك كانفا, ChatGPT, التجويف5 و التوليف لإنشاء المواد.

وقال سفوبودا: “لن يأخذ الذكاء الاصطناعي وظيفتك، لكن الأشخاص الذين يعرفون كيفية استخدام الذكاء الاصطناعي سيفعلون ذلك”.

بالإضافة إلى استخدام أدوات الذكاء الاصطناعي هذه لأنفسهم، طلب سفوبودا وتريمبل من الحضور مشاركة هذه المعلومات مع شركائهم من المقرضين والوكلاء العقاريين.

“مع أشياء كهذه، لا يعرف الناس عنها حقًا حتى الآن، وإذا كنت مزودًا لهذا النوع من المعلومات، فمن المؤكد أنك ستجذب انتباههم وتفوز بالمحادثة، والسوق المتغير هو معركة للمحادثات”. قال تريمبل.

يعمل الذكاء الاصطناعي على تبسيط العمل، لكنه يمكن أن يضعف مهارات حل المشكلات

في حين أن أدوات الذكاء الاصطناعي يمكن أن تكون مفيدة بشكل لا يصدق، فقد حذر الخبراء من المخاطر القانونية والتنظيمية المختلفة التي قد تنشأ إذا لم يتم استخدامها بشكل مسؤول.

في خطابها في Omni Session صباح الخميس، أشارت رهف حرفوش، عالمة الأنثروبولوجيا الرقمية، إلى أن معظم ما تركز عليه الشركات في مجال الذكاء الاصطناعي هو كيفية تأثير استخدامه على جهود التسويق أو التوظيف للشركة.

وفي الوقت نفسه، تتجاهل الشركات التأثير الثقافي الذي يمكن أن تحدثه التكنولوجيات، مما يجعلنا نقلل من تأثيرها على المجتمع.

ومع طرح منصات الذكاء الاصطناعي التوليدية مثل ChatGPT، قال حرفوش إن المجتمع ينتقل من “ثقافة البحث عن حل المشكلات إلى ثقافة حل المشكلات المولدة”.

في الماضي، عند مواجهة مشكلة ما، كان الأشخاص يكتبون استعلامات في Google ويقومون ببطء بتكوين حل لمشكلة ما. ولكن الآن مع الذكاء الاصطناعي التوليدي، يطلب الأشخاص من روبوت الدردشة إيجاد حل لمشكلتهم. وقال حرفوش إن هذا يؤدي إلى “مخاطرة الناس بفقدان القدرة على التفكير”.

وقال حرفوش: “إننا نخاطر بفقدان قدرتنا على الفهم ومحاولة حل بعض مشاكلنا، إذا لم نكن حذرين بشأن كيفية تطبيق هذه الأدوات”. “لذا، ما يعنيه ذلك هو أنه يتعين علينا الاستثمار في بناء الخبرة المتعمدة.”

وقال حرفوش إن هذا مهم للغاية لأن كل التكنولوجيا مبنية على نظام معتقدات وأن الذكاء الاصطناعي هو مظهر من مظاهر نظام معتقدات محدد.

وقال حرفوش: “كل أداة تكنولوجية هي شخص يقول “هذا هو ما أعتقد أن العالم يجب أن يبدو عليه”، ويبرمج تلك التوقعات والمعتقدات والأفكار، ثم يمتلك تكنولوجيا تنفذ على ذلك”.

في حين أنه قد يكون من السهل جدًا إنشاء محتوى باستخدام منصات الذكاء الاصطناعي التوليدية، إلا أن حرفوش قال إنه يجب على المستخدمين أن يسألوا أنفسهم ما إذا كانوا يعرفون نظام المعتقدات المدمج في الأداة وما إذا كانوا، كمستخدمين، يوافقون على هذه المعتقدات.

كن على دراية بالمعلومات الخاطئة ومخاطر التحيز

من منظور تنظيمي، إليزابيث رايلي، نائب الرئيس الأول وكبير مسؤولي الخصوصية في الإخلاص الوطنية الماليةوجينادي فيشنفيتسكي، كبير مسؤولي أمن المعلومات في ستيوارت، من الضروري أن يضع مستخدمو الذكاء الاصطناعي هذا الأمر في الاعتبار وأن يراقبوا التحيزات المحتملة، بالإضافة إلى المعلومات الخاطئة التي تولدها روبوتات الذكاء الاصطناعي.

قال رايلي: “من المهم حقًا أن نتذكر مع الذكاء الاصطناعي التوليدي أنه لا يوجد مصدر جذري للحقيقة”. “إنهم يعملون لأنهم استهلكوا قدرًا كبيرًا من البيانات وتعلموا تحديد الأنماط.”

على سبيل المثال، سلط رايلي الضوء على كيف يمكن لتاريخ الخطوط الحمراء أو المواثيق التمييزية في سجلات الأراضي أن يؤثر على قدرة أداة صنع القرار المعتمدة على الذكاء الاصطناعي في التقييم الصحيح لما إذا كانت معاملة معينة ستواجه أي مشكلات في الإغلاق.

قال رايلي: “إذا تم تدريبه على البيانات القديمة التي تحتوي على أدلة على هذه الأشياء، فقد ينتهي بك الأمر إلى نتيجة تمييزية دون أن تدرك ذلك”.

بالإضافة إلى القضايا التمييزية المحتملة، حذر رايلي وفيشنفيتسكي من أنه يمكن بسهولة استخدام الذكاء الاصطناعي من قبل المحتالين وغيرهم من الجهات الفاعلة السيئة لإنشاء عمليات احتيال أكثر تصديقًا وشاملة.

وقال فيشنفيتسكي بعد أن أوضح للحاضرين مدى سهولة استنساخ الأصوات وإنشاء رسائل صوتية وهمية حقيقية: “إننا ندخل عصرًا ستكون فيه الاتصالات الشخصية وبين الأشخاص أكثر أهمية من أي وقت مضى”. “لم يعد بإمكانك الوثوق بأي شيء بعد الآن.”

وعلى الرغم من تحذيره المشؤوم، قال فيشنفيتسكي إن هناك الكثير من الفرص التي يمكن الحصول عليها باستخدام الذكاء الاصطناعي.

قال فيشنفيتسكي: “الذكاء الاصطناعي موجود ليبقى”. “أنا أشجعك على تجربتها، ولكن افهم مخاطر النظام البيئي.”

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى