BÀI 3: LINEAR REGRESSION

  -  

xin chào mừng các bạn đọc đã quay trở về với chuỗi bài viết về Machine Learning của câu lạc bộ AI. Ở nội dung bài viết trước, họ đã được tìm hiểu và tiếp cận một cách tổng quát về Machine Learning với tía nhóm bài bác toán chính là Regression, Classification với Clustering. Để giúp bạn đọc nắm rõ hơn Machine Learning ở góc nhìn toán học, ở bài viết này bọn họ sẽ cùng khám phá về một thuật toán đơn giản và dễ dàng trong vấn đề RegressionLinear Regression (Hồi quy đường tính). Thông qua bài viết này, bạn sẽ có thể áp dụng kiến thức để sản xuất một quy mô máy học để dự đoán điểm vào cuối kỳ Nhập môn Lập trình, và sẽ tiến hành “nghịch” cùng với nó để xem phong thái “học” của máy là như thế nào.

1.

Bạn đang xem: Bài 3: linear regression

Linear Regression là gì?

Linear Regression (Hồi quy tuyến tính) là một trong những thuật toán cơ bạn dạng và thông dụng nhất của Supervised Learning (Học có giám sát), trong số đó đầu ra dự kiến là liên tục. Thuật toán này say mê hợp để dự đoán các giá trị áp sạc ra là những đại lượng tiếp tục như doanh số hay giá cả nắm vì nỗ lực phân loại chúng thành những đại lượng rời rốc như màu sắc và chất liệu của quần áo, giỏi xác định đối tượng trong một bức hình ảnh là mèo giỏi chó, …


*

Thử rước ví dụ sau: bạn đang sẵn có điểm thành phần về những môn như Nhập môn lập trình, OOP, Giải tích,… với điều ai đang cần là tính ra điểm vừa đủ cuối kỳ của mình. Rất 1-1 giản, bạn sẽ tính được chứ? tất yếu rồi! Bạn chỉ cần áp bí quyết tính điểm mức độ vừa phải vào là ra. Tiếp tục, chúng ta lại muốn khảo sát, những thống kê lại coi điểm thi thời điểm giữa kỳ Nhập môn lập trình ảnh hưởng như nỗ lực nào mang đến điểm vào cuối kỳ của các bạn trong lớp, bạn có nhu cầu xác định xem quan hệ tình dục giữa điểm thành phần và điểm cuối kỳ thì phải làm sao? Đây chắc hẳn rằng là một bài toán khó đối với những các bạn chưa từng thao tác làm việc với thiết bị học hoặc Thống kê, tuy vậy cũng chớ vội lo lắng, hãy cùng nhau tìm hiểu và giải quyết và xử lý các vướng mắc trong bài viết này nhé!

Trong Linear Regression họ sẽ gặp gỡ hai loại việc đó là Hồi quy 1-1 biến cùng Hồi quy đa biến. Để đơn giản dễ dàng thuật toán, chúng ra sẽ tìm hiểu và so sánh kỹ toán học của bài xích hồi quy 1-1 biến. Vậy hồi quy con đường tính đơn biến là gì? Univariate Linear Regression (hồi quy tuyến tính 1-1 biến) chính là mối quan hệ tình dục giữa hai vươn lên là số liên tiếp trên trục hoành (x) cùng trên trục tung (y). Phương trình hồi quy con đường tính 1-1 biến tất cả dạng như phương trình mặt đường thẳng ( y = ax + b ) cùng với (x) là biến độc lập và (y) là biến dựa vào vào (x). Đối cùng với Hồi quy con đường tính nhiều biến, chúng ta cũng có thể hiểu một cách đơn giản dễ dàng là sẽ có tương đối nhiều biến chủ quyền (x_1, x_2, dots, x_n) cùng nhiều thông số (a_1, a_2, dots, a_n) thay vì chưng chỉ một đổi thay (x) duy nhất.

2. Một vài cam kết hiệu cần chú ý và cách xác minh input với output của bài toán.

Tổng quát tháo hơn, vào supervised learning (học có giám sát), họ có một bộ tài liệu và bộ tài liệu này gọi là training phối (tập huấn luyện).

Giả sử bọn họ có bộ tài liệu thống kê điểm giữa kỳ và điểm cuối kỳ trong Nhập môn lập trình. Lúc đó, với việc hồi quy đối kháng biến này, đề nghị tìm ra một quy mô nhận vào input là điểm giữa kỳ cùng output ra dự kiến điểm vào cuối kỳ hợp lí nhất dựa trên mối tình dục giữa hai cột điểm mà mô hình đó search được.


Để dễ dàng dàng, ta đang thống nhất thực hiện một vài ký hiệu sau xuyên suốt bài viết này:

(m): Đại diện con số các training example (mẫu huấn luyện). Mang sử, bọn họ có 40 dòng điểm cuối kỳ khác nhau được tích lũy dựa trên điểm vào giữa kỳ tương ứng. Như vậy, ta tất cả 40 mẫu huấn luyện và m bằng 40.(x): Để ký kết hiệu các input variable (biến đầu vào) cũng hay được hotline là những feature (đặc trưng). Vào hồi quy đa biến, (x) là một trong những vector nhưng lại trong lấy một ví dụ này, (x) là số điểm review trong nửa học tập kỳ đầu – là một trong con số vào hồi quy solo biến.(y): Để cam kết hiệu các biến cổng đầu ra hay các biến mục tiêu , ở đây là điểm thời điểm cuối kỳ tương ứng.((x,y)): thay mặt đại diện một mẫu huấn luyện – training example.(x^(i), y^(i)): dùng để làm chỉ một mẫu giảng dạy cụ thể. Trả sử, với (i = 3) tương ứng ta tất cả điểm dữ liệu (x^(3), y^(3)) : Số điểm thời điểm cuối kỳ của chúng ta có thể là từng nào khi điểm giữa kỳ là 8.75? nhờ vào bảng số liệu trên, tại (y^(3)), kết quả dự đoán đạt quý hiếm là 7.8.

Chúng ta sẽ học phương trình con đường thẳng (y = ax + b) sinh sống bậc trung học phổ biến và hàm h – hypothesis (giả thuyết) cũng rất được biểu diễn giống như cho mô hình hồi quy đường tính 1-1 biến. Nó cũng biến thành lấy giá bán trị nguồn vào là x và đến ra kết quả đầu ra là y nhưng lại chỉ chuyển đổi các thông số a với b thành ( heta_0 = b) cùng ( heta_1 = a).

Khi đó về khía cạnh toán học, (h) là 1 trong những ánh xạ tự (x) lịch sự (y):


y = h(x) = h_ heta (x) = b + ax = heta_0 + heta_1 x

3. Bài toán dự đoán điểm vừa đủ Nhập môn lập trình


*
Nguồn ảnh: NakedCode

Bây giờ, chúng ta hãy đi sâu rộng về việc giải quyết các sự việc hồi quy 1-1 biến. Quan sát vào những training example (mẫu huấn luyện) được chỉ dẫn trong hình dưới đây.

Xem thêm: Số 6 Hay Số 9 - Ý Nghĩa Con Số Huyền Thoại


*
Hình 1

Vậy điều gì đã xảy ra khi bạn cần cầu lượng số điểm chính xác nhất khi đạt 7.00 điểm vào giữa kỳ từ thông tin trên? phía tiếp cận dễ dàng và đơn giản nhất là tìm một mặt đường thẳng (*) tương xứng với tập dữ liệu và vẽ một mặt đường thẳng từ địa chỉ 7 điểm trên trục x cho đến khi nó chạm vào đường thẳng(*) vừa tìm?


*
Hình 2

Hãy quan gần kề hình trên , tự hai chủng loại (4.00, 3.98) với (6.00, 5.5), ta vẽ được mặt đường thẳng red color và từ bỏ đó kiếm được hai quý hiếm ( heta_0) với ( heta_1) lần lượt là 0.76 0.94 . Bây giờ, chúng ta cũng có thể sử dụng hàm đưa thuyết để dự đoán điểm thời điểm cuối kỳ dựa bên trên điểm thời điểm giữa kỳ tương ứng với mức giá trị 7.00 như sau: (h(x) = 0.76x + 0.94 = 0.76*7 +0.94 = 6.26) điểm – giá trị cầu tính tương ứng với đường thẳng này.

Tuy nhiên, trong thực tiễn các bộ dữ liệu đưa vào huấn luyện quy mô nhiều hơn gấp trăm, gấp ngàn lần và số lượng các đặc trưng cũng chênh lệch đáng kể, việc xác định hàm tuyến tính trở nên khó khăn hơn. Sự mở ra của các vấn đề bên trên là chi phí đề để máy học tập ra đời, tạo ra nhiều thuật toán giao hàng cho mọi tín đồ như vận dụng thuật toán hồi quy con đường tính với SVM (Support Vector Machine) trong phân tích chứng khoán hay nhấn dạng giọng nói bằng mô hình Markov, …

Hàm trả thuyết ngơi nghỉ trên được xây dựng xuất sắc hay chưa? làm sao để hàm đó trở nên phù hợp nhất có thể? Làm cụ nào bạn nhận định và đánh giá được điều đó? Nhờ kia hàm mất mát được tạo ra ra, hàm để giúp đỡ bạn tính khoảng giải pháp giữa công dụng mà hàm đưa thuyết h dự đoán được so với cái giá trị thực sự cơ mà ta quan gần kề thấy.

*
Hình 3: thành lập hàm mất non

Khi bạn có mức giá trị dự đoán là 6.26 và cực hiếm thực là 6.00 chúng có ý nghĩa sâu sắc gì? Hàm mất đuối sẽ cho bạn biết sự chênh lệch giữa thực tiễn và mang thuyết và khi giá trị hàm này càng nhỏ, dự đoán của khách hàng lại càng đúng mực và càng phù hợp! bạn có mong ước hàm mất mát giới thiệu giá trị nhỏ dại nhất không? Đối với hồi quy tuyến tính, bạn cũng có thể tính bình phương độ sai lệch để đánh giá sự chênh lệch giữa giá trị chuyển ra do hàm giả thuyết với giá trị thực tiễn đo đạc được:


mathcalL( heta_0 , heta_1) = frac12m * sum_i=1^m ^2 \= frac12m * sum_i=1^m ^2

Dưới đây là demo code của hàm mất non của bài toán tính điểm cuối kỳ:

def loss_univariate(X, y, theta_0, theta_1): h = theta_0 + theta_1 * X m = len(X) loss = 1/(2*m) * np.sum((y - h) ** 2) return lossTừ quy mô dữ liệu hình 1, ta nhận được hàm mang thuyết tự điểm thời điểm giữa kỳ sang điểm cuối kỳ :


mathcalL = frac12m * <(y^(1) – x^(1) heta_1 – heta_0)^2 + … + (y^(m) – x^(m) heta_1 – heta_0)^2>

Mục tiêu của chúng ta là về tối ưu hay còn gọi là đi search điểm rất tiểu của hàm (mathcalL) bên trên. Vì đó là một hàm số hai đổi mới nên trước lúc muốn tìm rất tiểu thì bọn họ cùng ôn tập lại kỹ năng và kiến thức của môn giải tích hồi năm tốt nhất nhé ;). Để tìm rất trị của một hàm số 2 trở thành (f(x, y)), ta giải hệ phương trình đạo hàm ở một phía sau:


*
Hình 3: Đồ thị hàm mất mát

Mặc dù thời gian trước, khi học môn giải tích, để xác định xem nghiệm của hệ phương trình này là điểm cực tiểu, cực to hay điểm yên ngựa (điểm không hẳn cực tè cũng chưa phải cực đại) của hàm (f(x, y)), bọn họ còn phải tính ( f’_xx(x, y), f’_yy(x, y), ) và (f’_xy(x, y)) với biện luận từng nghiệm, tuy nhiên vì hàm (mathcalL) ở đây là hàm số bậc 2, tức là nó có hình trạng như một parabol với cùng một điểm cực tiểu nhất (Hình 3) buộc phải nghiệm của hệ phương trình đạo hàm cũng chính là điểm cực tiểu của hàm số (mathcalL). Tiếp thu kiến thức kỳ quỷ quái này, ta áp dụng vào việc tìm cực tè của hàm mất mát như sau:


mathcalL’_ heta_0 = frac1m*<(y^(1) – x^(1) heta_1 – heta_0)(-1) + … + (y^(m) – x^(m) heta_1 – heta_0)*(-1)> = 0
Leftrightarrow heta_0 + heta_1 * frac(x^(1) + … + x^(m))m = frac(y^(1) + … + y^(m))m
mathcalL_ heta_1 = frac1m<(y^(1) – x^(1) heta_1 – heta_0)(-x^(1)) + … + (y^(m) – x^(m) heta_1 – heta_0)(-x^(m))> = 0
Leftrightarrow heta_0 * frac(x^(1) + … + x^(m))m + heta_1 * frac((x^(1))^2 + … + (x^(m))^2)m = frac(y^(1)x^(1) + … + y^(m)x^(m))m
Leftrightarrow egincases heta_0 = frac(y^(1) + … + y^(m)) – heta_1(x^(1) + … + x^(m))m\ heta_1 = fracm(y^(1)x^(1) + … + y^(m)x^(m)) – (y^(1) + … + y^(m))(x^(1) + … + x^(m))m((x^(1))^2 + … + (x^(m))^2) – (x^(1) + … + x^(m))^2 endcases

Chúng ta sẽ thống kê giám sát các cực hiếm trong phương trình trải qua thư viện phổ biến trong Machine Learning là Numpy, bước quan trọng nhất trong mô hình Linear Regression là đi tra cứu nghiệm cho bài toán. Chúng ta giải hệ phương trình của bài bác toán solo biến như sau:

# Tính điểm cuối kỳ theo thetay_pred = theta_0 + theta_1*x1# trình diễn trên thứ thịplt.scatter(x1,x2)plt.plot(x1,y_pred.T, "r")

*
Hình 2
loss_univariate(X, y, theta_0, theta_1)0.27319262900804736 Từ đồ vật thị trên, ta thấy các điểm dữ liệu greed color khá ngay sát với mặt đường thẳng red color vậy quy mô hồi quy tuyến đường tính này chuyển động tốt với tập tài liệu đã cho. Bây giờ, chúng ta kiểm tra lại tác dụng hai quý hiếm θ0θ1 khi được tính bằng thư viện Scikit-Learn của Python:

Nhược điểm của cách thức này là gì? Khi mẫu mã số của phương trình ( heta_1) sống trên bằng không thì sao? thời gian ấy, hệ phương trình vào hồi quy tuyến đường tính bao gồm kết quả vô nghiệm đề xuất ta không thể tra cứu ra cỗ trọng số lý tưởng nữa cùng điều bọn họ cần có tác dụng là đưa ra một giải mã đủ tốt, cần một thuật toán nhằm tìm giá bán trị nhỏ nhất của hàm mất mát (mathcalL). Chúng ta sẽ trở về để kể thêm về sự việc này trong phần tiếp sau nhé!

4. Sử dụng thuật toán hồi quy con đường tính để giải việc tính giá bán nhà.


Với mô hình hồi quy đường tính nhiều biến, thay vì đi tìm một con đường thẳng (y=ax+b) khớp với hầu như điểm đã mang đến thì chúng ta đi tìm một khía cạnh phẳng/siêu khía cạnh phẳng (plane/hyperplane) trong không gian (n) chiều gồm dạng:


heta = eginbmatrix heta_0 \<0.3em> heta_1 \<0.3em> vdots \<0.3em> heta_n endbmatrix

một vector mặt hàng chứa những dữ liệu nguồn vào mở rộngsố 1 được chế tạo để dễ dàng và đơn giản hóa và dễ dãi cho tính toán. Cùng tương tự, trong mô hình đa phát triển thành này, ta cũng hoàn toàn có thể dựng đề xuất hàm mất mát mang đến siêu khía cạnh phẳng trên:


mathcalL = frac12m * left vdots \<0.3em> heta_n endbmatrix ight)^2 + … + left(y^(m) – eginbmatrix 1 & x_0^(m) & cdots & x_n^(m) endbmatrixeginbmatrix heta_0 \<0.3em> vdots \<0.3em> heta_n endbmatrix ight)^2 ight>

Các chúng ta dễ minh chứng được rằng, đấy là công thức tổng quát cho nghiệm của hệ phương trình bên trên với số lượng biến θ tùy ý:


Bài toán giá nhà là giữa những ví dụ điển hình nổi bật của thuật toán hồi quy đa biến này, với cùng 1 bộ dữ liệu gồm 11 đặc thù như con số phòng tắm, diện tích s trong nhà hay phong cảnh xung quanh, … các bạn sẽ tính θ như thế nào? làm cho sao áp dụng thuật toán này vào trong bài toán? Với nhị bộ dữ liệu gồm data_train cùng data_test, giờ bọn họ tiến hành train bằng cách thức nhân ma trận nào:

# cách 1: Tính X^T . XXtX = X.T
Xtytheta = theta<:, 0># Tính định thức của X^T . Xprint(np.linalg.det(XtX)) -4.6635911969955336e-71 Để ý rằng (-4.66*10^-71), một số lượng cực kỳ bé dại và sát với 0! Ở cách hai này, họ không thể tính được nghịch đảo (X^TX) một cách đúng chuẩn do bao gồm sai số.

Liệu bọn họ đã đi đúng phía chưa? Làm nuốm nào các bạn xác định được điều đó? Hãy xem sự không giống biệt khi thực hiện thư viện Scikit-Learn nào:


def loss_multivariate(X, y, theta): theta = theta.reshape(-1, 1) m = len(X) # Tính hàm giả thuyết h = X
theta loss = 1/(2*m) * np.sum((y - h) ** 2) return lossVà kết quả chúng ta thu được khi đối chiếu hàm non mát thân hai phương thức là:


Lời giải của họ tính được vẫn chưa tốt bằng giải mã mà thư viện đã đưa ra, vì sẽ sở hữu được trường hòa hợp định thức của (X^TX) xấp xỉ 0, đồng nghĩa tương quan với bài toán phương trình đạo hàm vô nghiệm. Vậy bọn họ cần gồm một thuật toán tác dụng và rất có thể dễ dàng tính được nghiệm cho việc này, đó chính là Gradient Descent.

*Trong Đại số con đường tính gồm một khái niệm gọi là giả nghịch đảo nhằm tìm nghịch hòn đảo của ma trận khi định thức của nó bằng không, tuy nhiên đó là một trong những phần khó và sẽ tiến hành đề cập thêm tại một bài khác.

5. Gradient Descent là gì?


Trong các bài viết trước, bọn họ đã được học tập cách thực hiện Gradient Descent để tối ưu (tìm điểm rất tiểu) một hàm số bất kỳ, vậy hoàn toàn có thể áp dụng ý tưởng của Gradient Descent để tìm ra bộ trọng số lý tưởng nhất mang lại hàm mất mát ngơi nghỉ trên không?

với thuật toán Gradient Descent, giả dụ lỗi không thấp chút nào thì thuật toán cần update các tham số có giá trị mới trong


và lúc lỗi vẫn tiếp tục cao vào trường thích hợp tiếp theo, nó vẫn tiếp tục update các tham số với giá trị new lần nữa. Quá trình này được lặp đi lặp lại đến lúc hàm mất đuối được bớt thiểu.

def gradient_descent(alpha, n): X = <4, 6, 8.75, ... , 5.7> y = <3.9, 5.5, 7.8, ... , 4.9> m = len(X) theta_0 = 0 theta_1 = 0 for _ in range (n): d_theta_0 = <> d_theta_1 = <> for i in range (m): d_theta_0.append((theta_0 +theta_1*X) - y) d_theta_1.append(((theta_0 + theta_1*X) - y) * X) theta_0 = theta_0 - alpha*(1/m)*sum(d_theta_0) theta_1 = theta_1 - alpha *(1/m)*sum(d_theta_1) return theta_0, theta_1Tóm lại, trong Gradient Descent, họ hướng về vùng rất tiểu, Gradient Descent sẽ tự động bước công việc ngày càng nhỏ tuổi bởi vì chúng ta đang hướng về khu vực tối ưu hóa với định nghĩa, cực tiểu là chỗ đạo hàm bằng 0. Như vậy, khi họ hướng về vùng rất tiểu, đạo hàm của hàm này sẽ tự động nhỏ lại với thuật toán sẽ dần dần hội tụ.

Xem thêm: Những Vị Thần Tình Yêu Cupid, Thần Tình Yêu Trong Văn Hoá Mỗi Quốc Gia

Dưới đấy là code để minh họa mang lại thuật toán:

def dL(X, y, theta): theta = theta.reshape(-1, 1) m = len(X) return -(1/m) * np.sum(X * (y - X
theta), axis=0)def gradient_descent(): m, n = X.shape # Khởi sản xuất theta hốt nhiên theta = np.random.randn(n) # Chọn các tham số như số lần lặp và thông số alpha iterations = 1000001 alpha = 0.5 for i in range(iterations): # cập nhật theta theo cách làm của GD theta = theta - alpha * dL(X, y, theta) # Tính hàm mất mát loss = loss_multivariate(X, y, theta) if i % 20000 == 0: # Xuất quý giá mất mát ra nhằm theo dõi print("Iter . Loss = ".format(i, loss)) return thetaKết quả so sánh hàm mất mát thân hai phương pháp:


Tuy nhiên, cũng biến thành có ngôi trường hợp nhưng Gradient Descent lại mang lại ra công dụng tốt hơn trên tập test, hãy xem ví dụ như sau:

# lựa chọn 1 điểm tài liệu trong tập dữ liệu test cùng dự đoáni = 1x_1 = Xy_1 = y<0>hypothesis = x_1
theta_gdprint("Dữ liệu của tòa nhà cần dự đoán: ", x_1)print()print("Dự đoán của phương thức đầu tiên: :.3f (triệu USD)".format(hypothesis))print("Dự đoán của tủ sách sklearn: :.3f (triệu USD)".format(hypothesis_sklearn))print("Dự đoán của gradient descent: :.3f (triệu USD)".format(hypothesis_gd))print("Giá trị thực tế: :.3f (triệu USD)".format(y_1))Dữ liệu của tòa nhà cần dự đoán: <1.000e+00 3.000e-06 2.250e-06 2.000e-06 0.000e+00 3.000e-06 7.000e-06 1.951e-03 2.570e-03 7.242e-03 2.170e-03 4.000e-04> dự kiến của phương pháp đầu tiên: 0.709 (triệu USD) dự kiến của tủ sách sklearn: 0.632 (triệu USD) dự kiến của gradient descent: 0.602 (triệu USD) cực hiếm thực tế: 0.538 (triệu USD) Vậy là chúng ta đã xong phần lí thuyết cũng giống như hiện thực ý tưởng phát minh của Linear Regression trải qua Python và các thư viện. Để tìm hiểu thêm code minh họa đến thuật toán này, các chúng ta có thể tham khảo Colab Notebook cơ mà mình đã chuẩn bị ở trên đây nhé!

6. Ứng dụng của Linear Regression trong thực tiễn

Dựa vào thuật toán này, chúng ta cũng có thể sử dụng nhằm giải các bài toán tương quan đến việc dự kiến mức lương trung bình sau khi ra trường phụ thuộc các đối số đầu vào là giới tính, điểm trung bình khóa huấn luyện và số lượng các chuyển động ngoại khóa đã tham gia ,…


Hay trong những bài toán trả về giá trị ánh nắng mặt trời phòng với giá trị đầu vào là ngày, ánh sáng ngoài trời và ánh nắng trong phòng, …


Cụ thể rộng và gần gụi với người dùng nhất, Facebook cũng sử dụng thuật toán này nhằm dự đoán con số người cốt truyện và bình luận dựa trên những can dự trong bài viết trước đó của khách hàng hay số lượng bằng hữu trên facebook, …


7. Tổng kết.

Như vậy, qua bài viết này, họ đã mày mò về thuật toán Linear Regression, những khái niệm cơ phiên bản cũng như cách vận dụng nó vào trong các bài toán dự đoán điểm Nhập môn xây dựng và dự đoán giá nhà! ao ước là chúng ta đã nắm vững được lí thuyết và giải pháp hiện thực ý tưởng phát minh của Linear Regression.

Tuy nhiên, đây mới chỉ là thử nghiệm trên dữ liệu ta vẫn quan gần cạnh được, và kết quả chưa thể làm phản ánh chính xác mức độ tác dụng của mô hình Linear Regression khi vận dụng vào việc dự kiến điểm nhập môn lập trình hay dự đoán giá nhà quanh đó thực tế. Ở các nội dung bài viết sau của câu lạc bộ thì các bạn sẽ được reviews thêm những cách thức để đánh giá một quy mô khi gửi vào đời sống. Hãy đón đọc thêm các bài viết tiếp theo của bọn chúng mình nhé!

7. Tài liệu tham khảo

Uyên Đặng – HTTT2019

kadikoy xe máy kurye umraniye xe máy kurye tuzla moto kurye atasehir moto kurye xe máy kurye moto kurye moto kurye moto kurye


Posted Under
Data Science Machine Learning Mathematics Optimization
Tagged
dự đoán giá cả nhà đất hồi quy đa trở nên hồi quy đối kháng biến hồi quy đường tính linear regression Machine Learning mathematics maths trang bị học nhập môn lập trình

Post navigation


những khái niệm cơ bản trong ngôn ngữ lập trình Python
Logistic Regression và bài toán phân loại cảm giác âm nhạc

Leave a Reply Cancel reply

Your e-mail address will not be published. Required fields are marked *