使用梯度上升欺騙神經網絡,讓網絡進行錯誤的分類

在本教程中,我將將展現如何使用梯度上升來解決如何對輸入進行錯誤分類。git

出如何使用梯度上升改變一個輸入分類
小程序

神經網絡是一個黑盒。理解他們的決策須要創造力,但他們並非那麼不透明。微信

在本教程中,我將向您展現如何使用反向傳播來更改輸入,使其按照想要的方式進行分類。網絡

人類的黑盒

首先讓咱們以人類爲例。若是我向你展現如下輸入:dom

頗有可能你不知道這是5仍是6。事實上,我相信我可讓大家相信這也多是8。ide

如今,若是你問一我的,他們須要作什麼才能把一個東西變成5,你可能會在視覺上作這樣的事情:工具

若是我想讓你把這個變成8,你能夠這樣作:動畫

如今,用幾個if語句或查看幾個係數不容易解釋這個問題的答案。而且對於某些類型的輸入(圖像,聲音,視頻等),可解釋性無疑會變得更加困難,但並不是不可能。
google

神經網絡怎麼處理

一個神經網絡如何回答我上面提出的一樣的問題?要回答這個問題,咱們能夠用梯度上升來作。url

這是神經網絡認爲咱們須要修改輸入使其更接近其餘分類的方式。

由此產生了兩個有趣的結果。首先,黑色區域是咱們須要去除像素密度的網絡物體。第二,黃色區域是它認爲咱們須要增長像素密度的地方。

咱們能夠在這個梯度方向上採起一步,添加梯度到原始圖像。固然,咱們能夠一遍又一遍地重複這個過程,最終將輸入變爲咱們所但願的預測。

你能夠看到圖片左下角的黑斑和人類的想法很是類似。

讓輸入看起來更像8怎麼樣?這是網絡認爲你必須改變輸入的方式。

值得注意的是,在左下角有一團黑色的物質在中間有一團明亮的物質。若是咱們把這個和輸入相加,咱們獲得以下結果:

在這種狀況下,我並不特別相信咱們已經將這個5變成了8。可是,咱們減小了5的機率,說服你這個是8的論點確定會更容易使用 右側的圖片,而不是左側的圖片。

梯度

在迴歸分析中,咱們經過係數來了解咱們所學到的知識。在隨機森林中,咱們能夠觀察決策節點。

在神經網絡中,它歸結爲咱們如何創造性地使用梯度。爲了對這個數字進行分類,咱們根據可能的預測生成了一個分佈。

這就是咱們說的前向傳播

在前進過程當中,咱們計算輸出的機率分佈

代碼相似這樣:

如今假設咱們想要欺騙網絡,讓它預測輸入x的值爲「5」,實現這一點的方法是給它一個圖像(x),計算對圖像的預測,而後最大化預測標籤「5」的機率。

爲此,咱們可使用梯度上升來計算第6個索引處(即label = 5) (p)相對於輸入x的預測的梯度。

爲了在代碼中作到這一點,咱們將輸入x做爲參數輸入到神經網絡,選擇第6個預測(由於咱們有標籤:0,1,2,3,4,5,…),第6個索引意味着標籤「5」。

視覺上這看起來像:

代碼以下:

當咱們調用.backward()時,所發生的過程能夠經過前面的動畫可視化。

如今咱們計算了梯度,咱們能夠可視化並繪製它們:


因爲網絡尚未通過訓練,因此上面的梯度看起來像隨機噪聲……可是,一旦咱們對網絡進行訓練,梯度的信息會更豐富:

經過回調實現自動化

這是一個很是有用的工具,幫助闡明在你的網絡訓練中發生了什麼。在這種狀況下,咱們想要自動化這個過程,這樣它就會在訓練中自動發生。

爲此,咱們將使用PyTorch Lightning來實現咱們的神經網絡:

 import torch
 import torch.nn.functional as F
 import pytorch_lightning as pl
 
 class LitClassifier(pl.LightningModule):
 
    def __init__(self):
        super().__init__()
        self.l1 = torch.nn.Linear(28 * 28, 10)
 
    def forward(self, x):
        return torch.relu(self.l1(x.view(x.size(0), -1)))
 
    def training_step(self, batch, batch_idx):
        x, y = batch
        y_hat = self(x)
        loss = F.cross_entropy(y_hat, y)
        result = pl.TrainResult(loss)
 
        # enable the auto confused logit callback
        self.last_batch = batch
        self.last_logits = y_hat.detach()
 
        result.log('train_loss', loss, on_epoch=True)
        return result
         
    def validation_step(self, batch, batch_idx):
        x, y = batch
        y_hat = self(x)
        loss = F.cross_entropy(y_hat, y)
        result = pl.EvalResult(checkpoint_on=loss)
        result.log('val_loss', loss)
        return result
 
    def configure_optimizers(self):
        return torch.optim.Adam(self.parameters(), lr=0.005)

能夠將自動繪製出此處描述內容的複雜代碼,抽象爲Lightning中的Callback。Callback回調是一個小程序,您可能會在訓練的各個部分調用它。

在本例中,當處理訓練批處理時,咱們但願生成這些圖像,以防某些輸入出現混亂。。

 import torch
 from pytorch_lightning import Callback
 from torch import nn
 
 
 class ConfusedLogitCallback(Callback):
 
    def __init__(
            self,
            top_k,
            projection_factor=3,
            min_logit_value=5.0,
            logging_batch_interval=20,
            max_logit_difference=0.1
    ):
        super().__init__()
        self.top_k = top_k
        self.projection_factor = projection_factor
        self.max_logit_difference = max_logit_difference
        self.logging_batch_interval = logging_batch_interval
        self.min_logit_value = min_logit_value
 
    def on_train_batch_end(self, trainer, pl_module, batch, batch_idx, dataloader_idx):
        # show images only every 20 batches
        if (trainer.batch_idx + 1) % self.logging_batch_interval != 0:
            return
 
        # pick the last batch and logits
        x, y = batch
        try:
            logits = pl_module.last_logits
        except AttributeError as e:
            m = """please track the last_logits in the training_step like so:
                def training_step(...):
                    self.last_logits = your_logits
            """
            raise AttributeError(m)
 
        # only check when it has opinions (ie: the logit > 5)
        if logits.max() > self.min_logit_value:
            # pick the top two confused probs
            (values, idxs) = torch.topk(logits, k=2, dim=1)
 
            # care about only the ones that are at most eps close to each other
            eps = self.max_logit_difference
            mask = (values[:, 0] - values[:, 1]).abs() < eps
 
            if mask.sum() > 0:
                # pull out the ones we care about
                confusing_x = x[mask, ...]
                confusing_y = y[mask]
 
                mask_idxs = idxs[mask]
 
                pl_module.eval()
                self._plot(confusing_x, confusing_y, trainer, pl_module, mask_idxs)
                pl_module.train()
 
    def _plot(self, confusing_x, confusing_y, trainer, model, mask_idxs):
        from matplotlib import pyplot as plt
 
        confusing_x = confusing_x[:self.top_k]
        confusing_y = confusing_y[:self.top_k]
 
        x_param_a = nn.Parameter(confusing_x)
        x_param_b = nn.Parameter(confusing_x)
 
        batch_size, c, w, h = confusing_x.size()
        for logit_i, x_param in enumerate((x_param_a, x_param_b)):
            x_param = x_param.to(model.device)
            logits = model(x_param.view(batch_size, -1))
            logits[:, mask_idxs[:, logit_i]].sum().backward()
 
        # reshape grads
        grad_a = x_param_a.grad.view(batch_size, w, h)
        grad_b = x_param_b.grad.view(batch_size, w, h)
 
        for img_i in range(len(confusing_x)):
            x = confusing_x[img_i].squeeze(0).cpu()
            y = confusing_y[img_i].cpu()
            ga = grad_a[img_i].cpu()
            gb = grad_b[img_i].cpu()
 
            mask_idx = mask_idxs[img_i].cpu()
 
            fig, axarr = plt.subplots(nrows=2, ncols=3, figsize=(15, 10))
            self.__draw_sample(fig, axarr, 0, 0, x, f'True: {y}')
            self.__draw_sample(fig, axarr, 0, 1, ga, f'd{mask_idx[0]}-logit/dx')
            self.__draw_sample(fig, axarr, 0, 2, gb, f'd{mask_idx[1]}-logit/dx')
            self.__draw_sample(fig, axarr, 1, 1, ga * 2 + x, f'd{mask_idx[0]}-logit/dx')
            self.__draw_sample(fig, axarr, 1, 2, gb * 2 + x, f'd{mask_idx[1]}-logit/dx')
 
            trainer.logger.experiment.add_figure('confusing_imgs', fig, global_step=trainer.global_step)
 
    @staticmethod
    def __draw_sample(fig, axarr, row_idx, col_idx, img, title):
        im = axarr[row_idx, col_idx].imshow(img)
        fig.colorbar(im, ax=axarr[row_idx, col_idx])
        axarr[row_idx, col_idx].set_title(title, fontsize=20)


可是,經過安裝pytorch-lightning-bolts,咱們讓它變得更容易了

 !pip install pytorch-lightning-bolts
 from pl_bolts.callbacks.vision import ConfusedLogitCallback
 
 trainer = Trainer(callbacks=[ConfusedLogitCallback(1)])

把它們放在一塊兒

最後,咱們能夠訓練咱們的模型,並在判斷邏輯產生混亂時自動生成圖像。

 # data
 dataset = MNIST(os.getcwd(), download=True, transform=transforms.ToTensor())
 train, val = random_split(dataset, [55000, 5000])
 
 # model
 model = LitClassifier()
 
 # attach callback
 trainer = Trainer(callbacks=[ConfusedLogitCallback(1)])
 
 # train!
 trainer.fit(model, DataLoader(train, batch_size=64), DataLoader(val, batch_size=64))

tensorboard會自動生成以下圖片:

看看這個是否是變得不同了

做者:William Falcon

完整代碼:https://colab.research.google.com/drive/16HVAJHdCkyj7W43Q3ZChnxZ7DOwx6K5i?usp=sharing

deephub翻譯組



本文分享自微信公衆號 - DeepHub IMBA(deephub-imba)。
若有侵權,請聯繫 support@oschina.cn 刪除。
本文參與「OSC源創計劃」,歡迎正在閱讀的你也加入,一塊兒分享。

相關文章
相關標籤/搜索