3.3. Thực hiện ngắn gọn của hồi quy tuyến tính

Sự quan tâm rộng rãi và mãnh liệt trong việc học sâu trong nhiều năm qua đã truyền cảm hứng cho các công ty, học giả và những người có sở thích phát triển một loạt các khuôn khổ nguồn mở trưởng thành để tự động hóa công việc lặp đi lặp lại của việc thực hiện các thuật toán học tập dựa trên độ dốc. Năm Section 3.2, chúng tôi chỉ dựa vào (i) hàng chục để lưu trữ dữ liệu và đại số tuyến tính; và (ii) tự động phân biệt để tính toán độ dốc. Trong thực tế, bởi vì các bộ lặp dữ liệu, chức năng mất mát, tối ưu hóa và các lớp mạng thần kinh rất phổ biến, các thư viện hiện đại cũng triển khai các thành phần này cho chúng ta.

Trong phần này, chúng tôi sẽ chỉ cho bạn cách thực hiện mô hình hồi quy tuyến tính từ Section 3.2 chính xác bằng cách sử dụng APIs cấp cao của các framework học sâu.

3.3.1. Tạo tập dữ liệu

Để bắt đầu, chúng ta sẽ tạo ra cùng một tập dữ liệu như trong Section 3.2.

from mxnet import autograd, gluon, np, npx
from d2l import mxnet as d2l

npx.set_np()

true_w = np.array([2, -3.4])
true_b = 4.2
features, labels = d2l.synthetic_data(true_w, true_b, 1000)
import numpy as np
import torch
from torch.utils import data
from d2l import torch as d2l

true_w = torch.tensor([2, -3.4])
true_b = 4.2
features, labels = d2l.synthetic_data(true_w, true_b, 1000)
import numpy as np
import tensorflow as tf
from d2l import tensorflow as d2l

true_w = tf.constant([2, -3.4])
true_b = 4.2
features, labels = d2l.synthetic_data(true_w, true_b, 1000)

3.3.2. Đọc tập dữ liệu

Thay vì lăn iterator của riêng mình, chúng ta có thể gọi API hiện có trong một framework để đọc dữ liệu Chúng tôi vượt qua featureslabels làm đối số và chỉ định batch_size khi khởi tạo một đối tượng lặp dữ liệu. Bên cạnh đó, giá trị boolean is_train cho biết liệu chúng ta có muốn đối tượng lặp dữ liệu xáo trộn dữ liệu trên mỗi kỷ nguyên hay không (đi qua bộ dữ liệu).

def load_array(data_arrays, batch_size, is_train=True):  #@save
    """Construct a Gluon data iterator."""
    dataset = gluon.data.ArrayDataset(*data_arrays)
    return gluon.data.DataLoader(dataset, batch_size, shuffle=is_train)

batch_size = 10
data_iter = load_array((features, labels), batch_size)
def load_array(data_arrays, batch_size, is_train=True):  #@save
    """Construct a PyTorch data iterator."""
    dataset = data.TensorDataset(*data_arrays)
    return data.DataLoader(dataset, batch_size, shuffle=is_train)

batch_size = 10
data_iter = load_array((features, labels), batch_size)
def load_array(data_arrays, batch_size, is_train=True):  #@save
    """Construct a TensorFlow data iterator."""
    dataset = tf.data.Dataset.from_tensor_slices(data_arrays)
    if is_train:
        dataset = dataset.shuffle(buffer_size=1000)
    dataset = dataset.batch(batch_size)
    return dataset

batch_size = 10
data_iter = load_array((features, labels), batch_size)

Bây giờ chúng ta có thể sử dụng data_iter theo cách tương tự như chúng ta gọi hàm data_iter trong Section 3.2. Để xác minh rằng nó đang hoạt động, chúng ta có thể đọc và in minibatch đầu tiên của các ví dụ. So sánh với Section 3.2, ở đây chúng ta sử dụng iter để xây dựng một iterator Python và sử dụng next để lấy mục đầu tiên từ iterator.

next(iter(data_iter))
[array([[-1.3689033 , -0.20985045],
        [ 0.03926884, -1.3402625 ],
        [ 1.0731696 ,  1.8307649 ],
        [ 0.97980016, -1.0509403 ],
        [ 0.68469703,  1.7043087 ],
        [-1.4760977 , -0.18857454],
        [-0.35942194, -0.9055353 ],
        [ 0.8289028 , -0.25843123],
        [ 0.30664065, -1.2474236 ],
        [-0.9140275 , -0.09713268]]),
 array([[ 2.1893177 ],
        [ 8.834586  ],
        [ 0.10456034],
        [ 9.746235  ],
        [-0.22193365],
        [ 1.8882912 ],
        [ 6.5558853 ],
        [ 6.7403984 ],
        [ 9.060337  ],
        [ 2.7011688 ]])]
next(iter(data_iter))
[tensor([[-1.0768, -1.1891],
         [-0.8970, -0.1291],
         [ 0.5670, -0.2283],
         [-1.2042, -0.2695],
         [-0.8318,  0.5172],
         [-0.5357,  1.0894],
         [-0.3336,  0.1212],
         [ 0.9926, -0.1793],
         [ 0.2501,  0.5808],
         [ 1.4849,  0.8004]]),
 tensor([[ 6.0941],
         [ 2.8334],
         [ 6.1015],
         [ 2.7120],
         [ 0.7793],
         [-0.5745],
         [ 3.1419],
         [ 6.7983],
         [ 2.7231],
         [ 4.4351]])]
next(iter(data_iter))
(<tf.Tensor: shape=(10, 2), dtype=float32, numpy=
 array([[ 0.4784555 ,  0.04281241],
        [-1.5868427 , -0.6348505 ],
        [ 0.513162  , -0.74936885],
        [-0.69791216, -0.20732246],
        [ 1.3916719 , -0.27817985],
        [-0.7066138 , -0.8622857 ],
        [-1.0813621 , -0.01751037],
        [-1.2970452 ,  1.9271172 ],
        [-1.381561  , -0.33860606],
        [-0.16385238, -1.8469858 ]], dtype=float32)>,
 <tf.Tensor: shape=(10, 1), dtype=float32, numpy=
 array([[ 5.0092473],
        [ 3.1902888],
        [ 7.759701 ],
        [ 3.5031252],
        [ 7.9205976],
        [ 5.7279286],
        [ 2.094441 ],
        [-4.9410486],
        [ 2.5934258],
        [10.161437 ]], dtype=float32)>)

3.3.3. Xác định mô hình

Khi chúng tôi thực hiện hồi quy tuyến tính từ đầu vào năm Section 3.2, chúng tôi đã xác định các tham số mô hình của mình một cách rõ ràng và mã hóa các phép tính để tạo ra đầu ra bằng cách sử dụng các phép toán đại số tuyến tính cơ bản. Bạn * nên biết làm thế nào để làm điều này. Nhưng một khi mô hình của bạn trở nên phức tạp hơn, và một khi bạn phải làm điều này gần như mỗi ngày, bạn sẽ rất vui vì được hỗ trợ. Tình hình tương tự như mã hóa blog của riêng bạn từ đầu. Làm điều đó một hoặc hai lần là bổ ích và hướng dẫn, nhưng bạn sẽ là một nhà phát triển web tệ hại nếu mỗi khi bạn cần một blog bạn đã dành một tháng để phát minh lại bánh xe.

Đối với các phép toán chuẩn, chúng ta có thể sử dụng các lớp được xác định trước của framework, cho phép chúng ta tập trung đặc biệt vào các layer dùng để xây dựng mô hình chứ không phải tập trung vào việc triển khai. Trước tiên chúng ta sẽ xác định một biến mô hình net, sẽ đề cập đến một phiên bản của lớp Sequential. Lớp Sequential định nghĩa một container cho nhiều lớp sẽ được xích lại với nhau. Cho dữ liệu đầu vào, một trường hợp Sequential truyền nó qua lớp đầu tiên, lần lượt đi qua đầu ra dưới dạng đầu vào của lớp thứ hai và vân vân. Trong ví dụ sau, mô hình của chúng tôi chỉ bao gồm một lớp, vì vậy chúng tôi không thực sự cần Sequential. Nhưng vì gần như tất cả các mô hình trong tương lai của chúng tôi sẽ liên quan đến nhiều lớp, dù sao chúng tôi sẽ sử dụng nó chỉ để làm quen với bạn với quy trình làm việc tiêu chuẩn nhất.

Nhớ lại kiến trúc của một mạng một lớp như thể hiện trong Fig. 3.1.2. Lớp được cho là * kết nối đầy đủ* bởi vì mỗi đầu vào của nó được kết nối với mỗi đầu ra của nó bằng phương pháp nhân ma thuật-vector.

Trong Gluon, lớp kết nối hoàn toàn được định nghĩa trong lớp Dense. Vì chúng ta chỉ muốn tạo ra một đầu ra vô hướng duy nhất, chúng ta đặt số đó thành 1.

Điều đáng chú ý là, để thuận tiện, Gluon không yêu cầu chúng ta chỉ định hình dạng đầu vào cho mỗi lớp. Vì vậy, ở đây, chúng ta không cần phải nói với Gluon có bao nhiêu đầu vào đi vào lớp tuyến tính này. Khi lần đầu tiên chúng ta cố gắng truyền dữ liệu thông qua mô hình của mình, ví dụ, khi chúng ta thực thi net(X) sau đó, Gluon sẽ tự động suy ra số lượng đầu vào cho mỗi lớp. Chúng tôi sẽ mô tả cách thức hoạt động chi tiết hơn sau.

# `nn` is an abbreviation for neural networks
from mxnet.gluon import nn

net = nn.Sequential()
net.add(nn.Dense(1))

Trong PyTorch, lớp kết nối hoàn toàn được định nghĩa trong lớp Linear. Lưu ý rằng chúng tôi đã thông qua hai đối số vào nn.Linear. Cái đầu tiên xác định kích thước đối tượng đầu vào, đó là 2, và thứ hai là kích thước tính năng đầu ra, đó là một vô hướng duy nhất và do đó 1.

# `nn` is an abbreviation for neural networks
from torch import nn

net = nn.Sequential(nn.Linear(2, 1))

Trong Keras, lớp kết nối hoàn toàn được định nghĩa trong lớp Dense. Vì chúng ta chỉ muốn tạo ra một đầu ra vô hướng duy nhất, chúng ta đặt số đó thành 1.

Điều đáng chú ý là, để thuận tiện, Keras không yêu cầu chúng ta chỉ định hình dạng đầu vào cho mỗi lớp. Vì vậy, ở đây, chúng ta không cần phải nói Keras có bao nhiêu đầu vào đi vào lớp tuyến tính này. Khi lần đầu tiên chúng ta cố gắng truyền dữ liệu thông qua mô hình của mình, ví dụ, khi chúng ta thực thi net(X) sau đó, Keras sẽ tự động suy ra số lượng đầu vào cho mỗi lớp. Chúng tôi sẽ mô tả cách thức hoạt động chi tiết hơn sau.

# `keras` is the high-level API for TensorFlow
net = tf.keras.Sequential()
net.add(tf.keras.layers.Dense(1))

3.3.4. Khởi tạo các tham số mô hình

Trước khi sử dụng net, chúng ta cần khởi tạo các tham số model chẳng hạn như trọng lượng và thiên vị trong mô hình hồi quy tuyến tính. Các khuôn khổ học sâu thường có cách xác định trước để khởi tạo các tham số. Ở đây chúng tôi chỉ định rằng mỗi tham số trọng lượng nên được lấy mẫu ngẫu nhiên từ phân phối bình thường với 0 trung bình và độ lệch chuẩn 0,01. Tham số thiên vị sẽ được khởi tạo thành 0.

Chúng tôi sẽ nhập mô-đun initializer từ MXNet. mô-đun này cung cấp các phương pháp khác nhau để khởi tạo tham số mô hình. Gluon làm cho init có sẵn dưới dạng phím tắt (viết tắt) để truy cập gói initializer. Chúng tôi chỉ chỉ định cách khởi tạo trọng lượng bằng cách gọi init.Normal(sigma=0.01). Các tham số thiên vị được khởi tạo thành 0 theo mặc định.

from mxnet import init

net.initialize(init.Normal(sigma=0.01))

Mã ở trên có thể trông đơn giản nhưng bạn nên lưu ý rằng một cái gì đó kỳ lạ đang xảy ra ở đây. Chúng tôi đang khởi tạo các tham số cho một mạng mặc dù Gluon chưa biết đầu vào sẽ có bao nhiêu kích thước! Nó có thể là 2 như trong ví dụ của chúng tôi hoặc nó có thể là 2000. Gluon cho phép chúng tôi thoát khỏi điều này bởi vì đằng sau hiện trường, việc khởi tạo thực sự là * hoãn lại*. Việc khởi tạo thực sự sẽ chỉ diễn ra khi chúng tôi lần đầu tiên cố gắng truyền dữ liệu qua mạng. Chỉ cần cẩn thận để nhớ rằng vì các tham số chưa được khởi tạo, chúng tôi không thể truy cập hoặc thao tác chúng.

Như chúng ta đã chỉ định kích thước đầu vào và đầu ra khi xây dựng nn.Linear, bây giờ chúng ta có thể truy cập trực tiếp các tham số để chỉ định các giá trị ban đầu của chúng. Đầu tiên chúng tôi xác định vị trí lớp net[0], là lớp đầu tiên trong mạng, sau đó sử dụng các phương thức weight.databias.data để truy cập các tham số. Tiếp theo chúng ta sử dụng các phương pháp thay thế normal_fill_ để ghi đè lên các giá trị tham số.

net[0].weight.data.normal_(0, 0.01)
net[0].bias.data.fill_(0)
tensor([0.])

mô-đun initializers trong TensorFlow cung cấp các phương pháp khác nhau để khởi tạo tham số mô hình. Cách dễ nhất để chỉ định phương thức khởi tạo trong Keras là khi tạo lớp bằng cách chỉ định kernel_initializer. Ở đây chúng tôi tái tạo lại net một lần nữa.

initializer = tf.initializers.RandomNormal(stddev=0.01)
net = tf.keras.Sequential()
net.add(tf.keras.layers.Dense(1, kernel_initializer=initializer))

Mã ở trên có thể trông đơn giản nhưng bạn nên lưu ý rằng một cái gì đó kỳ lạ đang xảy ra ở đây. Chúng tôi đang khởi tạo các tham số cho một mạng mặc dù Keras chưa biết có bao nhiêu kích thước đầu vào sẽ có! Nó có thể là 2 như trong ví dụ của chúng tôi hoặc nó có thể là 2000. Keras cho phép chúng tôi thoát khỏi điều này bởi vì đằng sau hậu trường, việc khởi tạo thực sự là * hoãn lại*. Việc khởi tạo thực sự sẽ chỉ diễn ra khi chúng tôi lần đầu tiên cố gắng truyền dữ liệu qua mạng. Chỉ cần cẩn thận để nhớ rằng vì các tham số chưa được khởi tạo, chúng tôi không thể truy cập hoặc thao tác chúng.

3.3.5. Xác định chức năng mất

Trong Gluon, mô-đun loss xác định các chức năng mất mát khác nhau. Trong ví dụ này, chúng ta sẽ sử dụng việc thực hiện Gluon về tổn thất bình phương (L2Loss).

loss = gluon.loss.L2Loss()

Lớp MSELoss tính toán lỗi bình phương trung bình (không có hệ số \(1/2\) trong (3.1.5)) . Theo mặc định, nó trả về mức lỗ trung bình so với các ví dụ.

loss = nn.MSELoss()

Lớp MeanSquaredError tính toán sai số bình phương trung bình (không có hệ số \(1/2\) trong (3.1.5)). Theo mặc định, nó trả về mức lỗ trung bình so với các ví dụ.

loss = tf.keras.losses.MeanSquaredError()

3.3.6. Xác định thuật toán tối ưu hóa

Minibatch stochastic gradient descent là một công cụ tiêu chuẩn để tối ưu hóa các mạng thần kinh và do đó Gluon hỗ trợ nó cùng với một số biến thể trên thuật toán này thông qua lớp Trainer của nó. Khi chúng tôi khởi tạo Trainer, chúng tôi sẽ chỉ định các tham số để tối ưu hóa (có thể đạt được từ mô hình net của chúng tôi thông qua net.collect_params()), thuật toán tối ưu hóa chúng tôi muốn sử dụng (sgd) và từ điển các siêu tham số theo yêu cầu của thuật toán tối ưu hóa của chúng tôi. Minibatch stochastic gradient gốc chỉ yêu cầu chúng ta đặt giá trị learning_rate, được đặt thành 0,03 ở đây.

from mxnet import gluon

trainer = gluon.Trainer(net.collect_params(), 'sgd', {'learning_rate': 0.03})

Minibatch stochastic gradient descent là một công cụ tiêu chuẩn để tối ưu hóa các mạng thần kinh và do đó PyTorch hỗ trợ nó cùng với một số biến thể trên thuật toán này trong mô-đun optim. Khi chúng ta khởi tạo một phiên bản SGD chúng ta sẽ chỉ định các tham số để tối ưu hóa (có thể đạt được từ mạng của chúng tôi thông qua net.parameters()), với một từ điển các siêu tham số theo yêu cầu của thuật toán tối ưu hóa của chúng tôi. Minibatch stochastic gradient gốc chỉ yêu cầu chúng ta đặt giá trị lr, được đặt thành 0,03 ở đây.

trainer = torch.optim.SGD(net.parameters(), lr=0.03)

Minibatch stochastic gradient descent là một công cụ tiêu chuẩn để tối ưu hóa mạng thần kinh và do đó Keras hỗ trợ nó cùng với một số biến thể trên thuật toán này trong mô-đun optimizers. Minibatch stochastic gradient descent chỉ yêu cầu chúng ta đặt giá trị learning_rate, được đặt thành 0,03 ở đây.

trainer = tf.keras.optimizers.SGD(learning_rate=0.03)

3.3.7. Đào tạo

Bạn có thể nhận thấy rằng thể hiện mô hình của chúng tôi thông qua các API cấp cao của một khuôn khổ học sâu đòi hỏi tương đối ít dòng mã. Chúng tôi không phải phân bổ các thông số riêng lẻ, xác định chức năng mất mát của chúng tôi hoặc thực hiện minibatch stochastic gradient descent. Khi chúng tôi bắt đầu làm việc với các mô hình phức tạp hơn nhiều, lợi thế của API cấp cao sẽ tăng lên đáng kể. Tuy nhiên, một khi chúng tôi có tất cả các phần cơ bản tại chỗ, bản thân vòng đào tạo rất giống với những gì chúng tôi đã làm khi thực hiện mọi thứ từ vết xước.

Để làm mới bộ nhớ của bạn: đối với một số kỷ nguyên, chúng tôi sẽ thực hiện một vượt qua toàn bộ dữ liệu (train_data), lặp đi lặp lại lấy một minibatch đầu vào và các nhãn chân lý mặt đất tương ứng. Đối với mỗi minibatch, chúng tôi trải qua các nghi thức sau:

  • Tạo ra dự đoán bằng cách gọi net(X) và tính toán tổn thất l (sự lan truyền về phía trước).

  • Tính toán gradient bằng cách chạy backpropagation.

  • Cập nhật các tham số mô hình bằng cách gọi trình tối ưu hóa của chúng tôi.

Để có biện pháp tốt, chúng tôi tính toán tổn thất sau mỗi kỷ nguyên và in nó để theo dõi tiến độ.

num_epochs = 3
for epoch in range(num_epochs):
    for X, y in data_iter:
        with autograd.record():
            l = loss(net(X), y)
        l.backward()
        trainer.step(batch_size)
    l = loss(net(features), labels)
    print(f'epoch {epoch + 1}, loss {l.mean().asnumpy():f}')
[10:49:12] src/base.cc:49: GPU context requested, but no GPUs found.
epoch 1, loss 0.025031
epoch 2, loss 0.000087
epoch 3, loss 0.000051
num_epochs = 3
for epoch in range(num_epochs):
    for X, y in data_iter:
        l = loss(net(X) ,y)
        trainer.zero_grad()
        l.backward()
        trainer.step()
    l = loss(net(features), labels)
    print(f'epoch {epoch + 1}, loss {l:f}')
epoch 1, loss 0.000260
epoch 2, loss 0.000097
epoch 3, loss 0.000096
num_epochs = 3
for epoch in range(num_epochs):
    for X, y in data_iter:
        with tf.GradientTape() as tape:
            l = loss(net(X, training=True), y)
        grads = tape.gradient(l, net.trainable_variables)
        trainer.apply_gradients(zip(grads, net.trainable_variables))
    l = loss(net(features), labels)
    print(f'epoch {epoch + 1}, loss {l:f}')
epoch 1, loss 0.000223
epoch 2, loss 0.000099
epoch 3, loss 0.000099

Dưới đây, chúng ta so sánh các tham số mô hình học được bằng cách đào tạo về dữ liệu hữu hạn và các tham số thực tế đã tạo ra tập dữ liệu của chúng tôi. Để truy cập các tham số, trước tiên chúng ta truy cập vào lớp mà chúng ta cần từ net và sau đó truy cập vào trọng lượng và thiên vị của lớp đó. Như trong triển khai từ đầu của chúng tôi, lưu ý rằng các thông số ước tính của chúng tôi gần với các đối tác thực tế mặt đất của chúng.

w = net[0].weight.data()
print(f'error in estimating w: {true_w - w.reshape(true_w.shape)}')
b = net[0].bias.data()
print(f'error in estimating b: {true_b - b}')
error in estimating w: [2.8729439e-04 3.2901764e-05]
error in estimating b: [0.00047541]
w = net[0].weight.data
print('error in estimating w:', true_w - w.reshape(true_w.shape))
b = net[0].bias.data
print('error in estimating b:', true_b - b)
error in estimating w: tensor([0.0007, 0.0007])
error in estimating b: tensor([0.0002])
w = net.get_weights()[0]
print('error in estimating w', true_w - tf.reshape(w, true_w.shape))
b = net.get_weights()[1]
print('error in estimating b', true_b - b)
error in estimating w tf.Tensor([-4.2438507e-05  4.5371056e-04], shape=(2,), dtype=float32)
error in estimating b [0.00012827]

3.3.8. Tóm tắt

  • Sử dụng Gluon, chúng ta có thể thực hiện các mô hình chính xác hơn nhiều.

  • Trong Gluon, mô-đun data cung cấp các công cụ để xử lý dữ liệu, mô-đun nn định nghĩa một số lượng lớn các lớp mạng thần kinh và mô-đun loss định nghĩa nhiều chức năng mất mát phổ biến.

  • mô-đun của MXNet initializer cung cấp các phương pháp khác nhau để khởi tạo tham số mô hình.

  • Kích thước và lưu trữ được tự động suy ra, nhưng hãy cẩn thận không cố gắng truy cập các tham số trước khi chúng được khởi tạo.

  • Sử dụng API cấp cao của PyTorch, chúng ta có thể triển khai các mô hình chính xác hơn nhiều.

  • Trong PyTorch, mô-đun data cung cấp các công cụ để xử lý dữ liệu, mô-đun nn định nghĩa một số lượng lớn các lớp mạng thần kinh và các chức năng mất phổ biến.

  • Chúng ta có thể khởi tạo các tham số bằng cách thay thế các giá trị của chúng bằng các phương thức kết thúc bằng _.

  • Sử dụng API cấp cao của TensorFlow, chúng ta có thể triển khai các mô hình chính xác hơn nhiều.

  • Trong TensorFlow, mô-đun data cung cấp các công cụ để xử lý dữ liệu, mô-đun keras định nghĩa một số lượng lớn các lớp mạng thần kinh và các chức năng mất phổ biến.

  • mô-đun của TensorFlow initializers cung cấp các phương pháp khác nhau để khởi tạo tham số mô hình.

  • Kích thước và lưu trữ được tự động suy ra (nhưng hãy cẩn thận không cố gắng truy cập các tham số trước khi chúng được khởi tạo).

3.3.9. Bài tập

  1. Nếu chúng ta thay thế l = loss(output, y) bằng l = loss(output, y).mean(), chúng ta cần thay đổi trainer.step(batch_size) thành trainer.step(1) để mã hoạt động giống hệt nhau. Tại sao?

  2. Xem lại tài liệu MXNet để xem những chức năng mất mát và phương pháp khởi tạo được cung cấp trong các mô-đun gluon.lossinit. Thay thế tổn thất bằng mất mát của Huber.

  3. Làm thế nào để bạn truy cập gradient của dense.weight?

Discussions

  1. Nếu chúng ta thay thế nn.MSELoss(reduction='sum') bằng nn.MSELoss(), làm thế nào chúng ta có thể thay đổi tốc độ học tập để mã hoạt động giống hệt nhau. Tại sao?

  2. Xem lại tài liệu PyTorch để xem các chức năng mất mát và phương pháp khởi tạo được cung cấp. Thay thế tổn thất bằng mất mát của Huber.

  3. Làm thế nào để bạn truy cập gradient của net[0].weight?

Discussions

  1. Xem lại tài liệu TensorFlow để xem các chức năng mất mát và phương pháp khởi tạo nào được cung cấp. Thay thế tổn thất bằng mất mát của Huber.

Discussions