完善主體資料,免費贈送VIP會員!
    * 主體類型
    * 企業名稱
    * 信用代碼
    * 所在行業
    * 企業規模
    * 所在職位
    * 姓名
    * 所在行業
    * 學歷
    * 工作性質
    請先選擇行業
    您還可以選擇以下福利:
    行業福利,領完即止!

    下載app免費領取會員

    NULL

    ad.jpg

    CAD幾何領域機器學習數據集縱覽

    發布于:2024-08-26 23:19:09
    首頁/技術分享/CAD
    收藏
    673

    網友投稿

    更多

    在今年初,丹麥奧胡斯大學的兩位學者:Alexandros Iosifidis教授與Negar Heidari博士發表了一篇調研報告,題為:《Geometric Deep Learning for Computer-Aided Design: A Survey》。


    image.png

    (奧胡斯大學兩位學者簡介)


    文章列舉了多個幾何機器學習的數據集,在摘要中是這么描述幾何機器學習的:“幾何深度學習技術已成為CAD領域的一股變革力量,并有可能徹底改變設計師和工程師處理和改進設計流程的方式。通過利用基于機器學習的方法的強大功能,CAD設計師可以優化他們的工作流程,節省時間和精力,同時做出更明智的決策,并創建兼具創新性和實用性的設計。處理由幾何數據表示的CAD 設計并分析其編碼特征的能力能夠識別不同CAD模型之間的相似性,提出替代設計和增強功能,甚至生成新穎的設計替代方案。該調研全面概述了計算機輔助設計中各種類別的基于學習的方法,包括相似性分析和檢索、2D與3D CAD 模型合成以及從點云生成CAD。此外,該調研還提供了基準數據集及其特征的完整列表,以及推動該領域研究的開源代碼。最后的討論深入探討了該領域普遍存在的挑戰,然后是這個快速發展的領域未來的潛在研究方向。”

    image.png

    (調研報告可在arXiv搜索到)


    文章很貼心的對CAD幾何中的常見詞匯做了具體描述:

    image.png


    對常見的數據格式也做了分類列舉:

    image.png


    下面是最重磅的總結了,值得收藏。將數據集的參數規模,類型,應用點做了列舉與分類。

    image.png


    文章介紹了幾個典型的機器學習架構,如UV-NET的架構。UV-Net是最早提出的直接處理3D CAD模型的 BRep數據格式的深度學習方法之一。UV-Net通過使用鄰接圖對拓撲進行建模,并根據曲線和曲面的U和V參數域以規則網格格式對幾何進行建模,為 BRep數據提出了一種內聚圖表示。

    image.png


    同時也介紹了諸如MFCAD,SketchGen,DeepCAD, CAD2Sketch/Sketch2CAD等等。

    image.png

    (MFCAD)


    image.png

    (SketchGen)


    image.png

    (CAD2Sketch/Sketch2CAD)


    image.png

    (DeepCAD架構)


    文章最后拋出了一些討論點:

    1. 帶注釋的BRep數據。盡管近年來發布了幾個大型 CAD 數據集,其中包括BRep格式以及傳統的3D數據格式,但基于監督學習的方法對帶注釋的數據集的需求仍然很大。為 CAD模型分類添加注釋的數據集在大小上仍然有限,缺乏對CAD模型進行全面分析所需的多樣性和復雜性。

    2. 對于復雜CAD組件的裝配存在分析困難。

    3. 無監督與自監督的方案值得探索。鑒于CAD中缺乏用于監督學習的注釋數據,利用大規模數據集,增強自監督和/或無監督方法具有很大的潛力。

    4. CAD生成和BRep合成探索。當前CAD 命令的通用方法通常側重于一組有限的操作,例如草圖和拉伸,從而限制了生成的 CAD 模型的復雜性和多樣性。值得注意的是,在某些方法中,例如 DeepCAD,無法保證所有生成的CAD命令序列都會產生拓撲邏輯上有效的CAD模型,尤其是在具有長命令序列的復雜模型的情況下。因此,未來探索的途徑包括擴展生成方法以涵蓋更廣泛的CAD操作,例如圓角和倒角,從而允許為更復雜的CAD形狀生成命令序列。

    5. 提高框架可重復性的透明度。在這個領域,一個重大的挑戰在于重現和比較不同方法的實驗結果。由于缺乏大規模的標注基準數據集,因此為基于機器學習的 CAD 分析提出的每種方法要么引入為特定任務量身定制的新標注CAD數據集,要么修改和標注大規模數據集的一部分以進行評估。在這些較小的數據集上訓練的監督方法通常表現出高性能,幾乎沒有改進的余地。此外,由于每種方法都是在適合其特定任務的數據集上進行基準測試的,因此比較結果變得復雜。為了解決這些問題,強烈建議研究人員為其發布的代碼提供全面的文檔,詳細說明數據預處理設置,并提供有關實驗設置和代碼依賴關系的足夠信息。這種透明度可以極大地促進該領域未來的研究工作。


    本文版權歸腿腿教學網及原創作者所有,未經授權,謝絕轉載。

    未標題-1.jpg

    上一篇:revit如何打開fbx文件

    下一篇: 中國圖學學會BIM證書可作為投標加分條件,8月25日起施行

    主站蜘蛛池模板: 国产一区二区三区亚洲综合| 亚洲综合色自拍一区| 一区二区三区亚洲| 亚洲日本中文字幕一区二区三区| 久久综合亚洲色一区二区三区 | 免费在线观看一区| 国产福利一区二区精品秒拍| 亚洲AV无码一区二区三区鸳鸯影院 | 无码中文人妻在线一区| 成人国产精品一区二区网站公司| 国产免费一区二区三区免费视频| 香蕉久久AⅤ一区二区三区| 国产精品一区在线观看你懂的| 亚洲欧美日韩一区二区三区在线| 国产伦精品一区二区三区在线观看| 亚洲av福利无码无一区二区| 大香伊人久久精品一区二区| 国产成人一区二区动漫精品 | 久久久久人妻精品一区二区三区| 久久综合亚洲色一区二区三区| 中文字幕一区二区三| 亚洲第一区视频在线观看| 中文字幕久久久久一区| 一区二区三区精品视频| 国产免费私拍一区二区三区| 最新欧美精品一区二区三区| 久久久久人妻一区二区三区vr | 亚洲线精品一区二区三区| 国产精久久一区二区三区| 一区二区不卡久久精品| 无码国产亚洲日韩国精品视频一区二区三区 | 另类ts人妖一区二区三区| 成人免费一区二区三区| 国产aⅴ精品一区二区三区久久| 国产香蕉一区二区精品视频 | 国产精品一区二区久久国产| 精品国产一区二区三区AV性色| 国产人妖视频一区在线观看| 国产成人一区二区动漫精品| 日韩十八禁一区二区久久| 久久国产午夜精品一区二区三区 |