雅虎香港 搜尋

  1. 相關搜尋:

  1. cv 中文 sample 相關

    廣告
  2. Download your CV instantly in both WORD & PDF formats. Unlock premium CV templates now. Download your CV instantly and seize opportunities. Use AI-enhanced templates & get hired.

    • Contact Us

      Fill Out the Form Or Call Us To

      Get Your Queries Resolved.

    • Help Center

      Select Your Preferred Option To

      Get the Help You Need.

  3. Create a professional CV online and impress employers. Ready in 3 simple steps. Easily build your own professional CV. Ready in a few minutes. Get started right away!

搜尋結果

  1. 自變數同應變數. 自變數zi6 bin3 sou3 ( independent variable ,簡稱 IVaai1 wi1 )同 應變數jing3 bin3 sou3 ( dependent variable ,簡稱 DVdi1 wi1 )係 函數 或者 統計學 上嘅概念。. IV 指輸入嘅 變數 (通常用x軸表示);而 DV 指輸出嘅變數 (通常用y軸表示),即係 DV 會隨住 IV 嘅變動 ...

  2. 迴歸分析 ( 粵拼 : wui4 gwai1 fan1 sik1 ; 英文 : regression analysis )係 統計模型 上嘅一類技術,用嚟預測兩個或者以上唔同 變數 之間嘅關係:喺 統計學 上,研究者好多時會想用一個變數嘅數值嚟預測第啲變數嘅數值;喺最簡單嗰種情況下,個統計模型會涉及兩個 連續 嘅變數 [1] ,當中一個係 自變數 IV,另一個係 應變數 DV,而個研究者會用個 IV 嘅數值嚟預測個 DV 嘅數值;對個研究者嚟講,一個可能嘅做法係搜集數據返嚟,用啲數據做迴歸分析,整一個模型出嚟,個模型就能夠幫佢預測「當 IV 係呢個數值嗰陣,假設第啲因素不變,個 DV 嘅數值會傾向係幾多」 [2] [3] 。

  3. 樣本大細 ( 粵拼 : joeng6 bun2 daai6 sai3 ; 英文 : sample size )係指一個 樣本 入面嘅個體數量。 喺 統計學 上,樣本大細要點樣決定係一個重要課題。 喺現實應用上,因為人力物力限制,研究者往往冇辦法做到「樣本有咁大得咁大」,不過會起碼想啲樣本「有返咁上下大」,仲會有啲特定嘅式,用嚟計「樣本最少要係幾大」 [1] 。 點解重要. 睇埋: 統計自由度 同 統計功效. 喺廿一世紀初嘅統計學應用當中,樣本大細係一個相當重要嘅數值。 啲人做親 統計分析 ,基本實會睇睇場分析用嗰個樣本有幾大。 如果一場分析樣本細,就表示手上嘅 資訊 量少,而呢點就表示分析者對於「呢場測試係咪真係能夠探測到實質存在嘅效果」( 統計功效 )存疑。 引咗.

  4. 標準差係 概率 統計 中量度一組數值 離散程度 嘅指標,主要用來取代 平均差 ,定義做 方差 開 算術平方根 。 計法. 睇埋: 變異數. 變異數 (variance, ):以下嘅數值: , 係個案數, 係第 個案喺變數嘅值,而 係樣本嘅 平均值 - 反映咗啲個案平均距離平均值幾遠。 標準差就係變異數嘅 開方 。 睇埋. 離散程度. 平均差. 金融風險. 屬於2類 : 統計學. 數學楔類.

  5. 混淆變數(英文: confounding variable / confounder )喺統計分析上係指一個同時會對自變數同應變數產生影響嘅變數,搞到研究者唔能夠肯定(如果搵到)自變數同應變數之間嘅關係係咪因為兩者真係有關,定係因為個混淆變數嘅影響。 想像家陣研究者做一份研究,想知道 同 呢兩個變數之間嘅關係,佢 ...

  6. 自由體圖 ( free body diagram )係 力學 分析上嘅一種做法,喺 物理學 同 工程學 上都好常用:一幅自由體圖會畫出分析緊嗰一件物體、件物體嘅各部份、以及向件物體施 力 嘅物體,然後用箭咀表示出個系統當中存在嘅力,每個箭咀會有個方向代表嗰股力嘅方向 ...

  7. Transformer嘅引入揭示唨噉樣一個事實,即關注機製本身就有好強大嘅功能,而且照序循環處理啲數據查實對於達到嗰種性能提升嚟講冇乜必要,之RNN加埋關注機制先得到嘅。 另外Transformer使關注機制而唔係RNN,同時處理得嗮所有標識,計出佢哋之間嘅關注權重。 架構. 似早先發明有嘅嗰啲模型一樣,Transformer用嘅亦都係編碼器-解碼器架構(encoder-decoder architecture)。 編碼器由一組編碼層組成,呢啲編碼層逐層噉疊代處理個輸入;解碼器同理,亦都係一組編碼層對個輸出執行相同操作。 每𤗲編碼層嘅功能都係處理佢攞到嘅輸入嚟生成編碼,其中包含有啲資訊關於啲輸入嘅邊啲部分係互相之間相關嘅。 之後𤗲編碼層會捉佢個編碼集傳遞到後尾一𤗲編碼層作爲輸入。

  1. 其他人也搜尋了