首頁最新資訊

全部 人工智能學(xué)科動態(tài) 人工智能技術(shù)資訊 人工智能常見問題 技術(shù)問答

    • 深度學(xué)習(xí)的先決條件是什么?

      深度學(xué)習(xí)是一種機(jī)器學(xué)習(xí)方法,其目標(biāo)是通過構(gòu)建和訓(xùn)練神經(jīng)網(wǎng)絡(luò)來實現(xiàn)自動化的特征學(xué)習(xí)和模式識別。要理解深度學(xué)習(xí)的先決條件,您需要對以下幾個關(guān)鍵概念和技術(shù)有一定的了解。查看全文>>

      人工智能常見問題2023-07-26 |黑馬程序員 |深度學(xué)習(xí),先決條件,神經(jīng)網(wǎng)絡(luò)
    • ResNet解決了什么問題?結(jié)構(gòu)有何特點?

      ResNet(Residual Network)是由Kaiming He等人提出的深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),它在2015年的ImageNet圖像識別競賽中取得了非常顯著的成績,引起了廣泛的關(guān)注。查看全文>>

      人工智能常見問題2023-07-21 |黑馬程序員 |ResNet,殘差塊,跳躍鏈接
    • Batch Normalization有什么作用?使用時需要注意什么?

      在人工智能領(lǐng)域中,Batch Normalization(批歸一化)是一種常用的技術(shù),它的作用是加速神經(jīng)網(wǎng)絡(luò)的訓(xùn)練過程,并提高模型的性能。以下是Batch Normalization的主要作用和需要注意的事項:查看全文>>

      人工智能常見問題2023-07-19 |黑馬程序員 |Batch Normalization,模型穩(wěn)定性,收斂速度
    • 網(wǎng)絡(luò)訓(xùn)練時為何要加正則化,有哪些手段?

      在網(wǎng)絡(luò)訓(xùn)練過程中,正則化是一種用來防止過擬合(overfitting)的技術(shù)。過擬合指的是模型在訓(xùn)練集上表現(xiàn)很好,但在未見過的數(shù)據(jù)上表現(xiàn)較差的情況。正則化的目標(biāo)是使模型在訓(xùn)練集和測試集上都能有良好的性能。查看全文>>

      人工智能常見問題2023-07-14 |黑馬程序員 |網(wǎng)絡(luò)訓(xùn)練,正則化,過擬合
    • 損失函數(shù)(loss函數(shù))有什么作用?

      在人工智能領(lǐng)域中,損失函數(shù)(loss函數(shù))是機(jī)器學(xué)習(xí)和深度學(xué)習(xí)中的一個重要組成部分。它的作用是衡量模型的預(yù)測結(jié)果與真實標(biāo)簽之間的差異,即模型的預(yù)測誤差。查看全文>>

      人工智能常見問題2023-07-14 |黑馬程序員 |損失函數(shù),loss函數(shù),均方誤差損失函數(shù)
    • 有哪些領(lǐng)域使用模式識別技術(shù)?

      在人工智能領(lǐng)域中,模式識別技術(shù)被廣泛應(yīng)用于許多不同的領(lǐng)域。下面是一些常見的領(lǐng)域和使用模式識別技術(shù)的例子,以及附帶的代碼演示。查看全文>>

      人工智能常見問題2023-07-13 |黑馬程序員 |模式識別,圖像識別,語音識別
和我們在線交談!