Digital twinning projects for smart campuses are often carried out using dense sensor networks (IoT), advanced building and energy management systems (BMS/EMS), and expensive 3D scanning infrastructures such as LiDAR or multi-camera rigs. This study presents a practical, sensor-free approach that starts from a single RGB image and integrates 2D scene parsing and monocular depth estimation into 3D reconstruction, object-level segmentation, and automatic BIM transfer. Boundary-sensitive semantic maps generated by SERNet-Former_v2 and single-image depth outputs are reprojected into point clouds. Planar extraction then identifies major architectural elements (walls, floors, ceilings), while openings (doors, windows) and structural components (columns) are segmented at the object level. The pipeline produces BIM-compatible geometry and parameters. The method is evaluated on benchmark datasets such as ScanNet and TUM CMS Indoor Point Cloud, pioneering comprehensive digital twinning projects such as TUM2TWIN, with an aim of smart campus for making the TUM campuses as the best-surveyed places. Under the single-image setting, 3D accuracy reaches 78.8%, while 2D→3D projection consistency achieves 81.9%. Depth estimation is measured by RMSE, and 3D reconstruction by ICP-RMSE and 3D RMSE, with a minimal reconstruction error of 0.02 RMSE. The entire workflow runs on a A100-40GB GPU with single inputs having 512×512 pixel crop sizes under 6s per sample. The resulting BIM-compliant spatial parameters will serve as programmatic inputs to semantic models and Model Predictive Control (MPC) schemes, enabling cost-efficient and scalable early-stage assessments. Without requiring domain adaptation, this workflow offers a rapid and effective alternative for field deployment and digital documentation in architecture and engineering applications.
Semantic segmentation Monocular depth 3D reconstruction Building Information Modeling
This article has not been published or submitted elsewhere for publication. Research and publication ethics have been followed, and all sources used have been properly cited. Since the study does not involve human or animal subjects, no ethics committee approval is required.
Hacettepe University
Akıllı kampüsler için dijital ikiz projeleri genellikle yoğun sensör ağları ve pahalı 3B tarama altyapıları ile yürütülmektedir. Bu çalışma, yalnızca tek bir RGB görüntüden hareketle 2B sahne ayrıştırma ve monoküler derinlik kestirimini birleştirip 3B rekonstrüksiyon, nesne düzeyi ayrıştırma ve Bina Bilgisi Modelleme (BIM)’e otomatik nesne aktarımını mümkün kılan ve ek sensörlere ihtiyaç duymayan pratik bir yaklaşım sunar. Temelde SERNet-Former_v2 ile üretilen sınır-duyarlı 2B sınıf haritaları ve tek-görüntü derinlik çıktıları, geri izdüşüm ile nokta bulutuna dönüştürülür. Düzlem çıkarımı ile duvar, zemin, tavan gibi nesneler ve kapı, pencere gibi açıklıklar ayrıştırılır. Kolon, duvar gibi yapısal elemanlar nesne düzeyinde tanımlanır, BIM uyumlu geometri ve parametreler elde edilir. Bu yaklaşım, akıllı kampüs hedefiyle çok kapsamlı dijital ikiz çalışması olarak geliştirilen TUM2TWIN projesine öncülük eden ScanNet ve TUM CMS Indoor Point Cloud gibi veri kümeleri üzerinde sınanmıştır: Tek-görüntü koşulunda 3B doğruluk 78.8%, 2B→3B projeksiyon tutarlılığı ise 81.9% oranında ölçülmüştür. Derinlik için RMSE, 3B için ICP-RMSE ve 3D RMSE kullanılmış, 0.02 RMSE değeri elde edilmiştir. Tek A100-40GB GPU’da tekli RGB girdilerde 512×512 piksel kırpma boyutu ile örnek başına altı saniyenin altında çalışma süresi sağlanmıştır. Elde edilen BIM-uyumlu mekansal parametreler semantik modellere ve Model Öngörülü Denetim tasarımlarına programatik girdi sağlayarak, erken faz değerlendirmelerini düşük maliyet ve hızlı geri bildirimle ölçeklenebilir kılacaktır. Ek alan uyarlaması gerektirmeyen bu hat, mimarlık ve mühendislik uygulamalarında sahaya hızlı geçiş ve dijital belgeleme için uygulanabilir bir alternatif sunar.
Semantik ayrıştırma Monoküler derinlik 3B rekonstrüksiyon Bina Bilgisi Modelleme
Bu makale daha önce herhangi bir yerde yayımlanmamış veya yayımlanmak üzere değerlendirilmemektedir. Araştırma ve yayın etiği kurallarına uyulmuş, kullanılan tüm kaynaklara uygun şekilde atıf yapılmıştır. Çalışma insan veya hayvan denekleri içermediğinden etik kurul onayı gerektirmemektedir.
Hacettepe Universitesi
| Birincil Dil | Türkçe |
|---|---|
| Konular | Görüntü İşleme, Derin Öğrenme, Nöral Ağlar, Modelleme ve Simülasyon, İnşaat Mühendisliğinde Sayısal Modelleme, İnşaat Yapım Mühendisliği, Mimari Mühendislik |
| Bölüm | Araştırma Makalesi |
| Yazarlar | |
| Gönderilme Tarihi | 28 Ağustos 2025 |
| Kabul Tarihi | 23 Ocak 2026 |
| Yayımlanma Tarihi | 20 Mart 2026 |
| DOI | https://doi.org/10.7240/jeps.1772740 |
| IZ | https://izlik.org/JA72ZC53TX |
| Yayımlandığı Sayı | Yıl 2026 Cilt: 38 Sayı: 1 |