溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊(cè)×
其他方式登錄
點(diǎn)擊 登錄注冊(cè) 即表示同意《億速云用戶(hù)服務(wù)條款》

Tensorflow可視化工具Tensorboard怎么用

發(fā)布時(shí)間:2021-08-10 11:01:24 來(lái)源:億速云 閱讀:294 作者:小新 欄目:開(kāi)發(fā)技術(shù)

這篇文章主要為大家展示了“Tensorflow可視化工具Tensorboard怎么用”,內(nèi)容簡(jiǎn)而易懂,條理清晰,希望能夠幫助大家解決疑惑,下面讓小編帶領(lǐng)大家一起研究并學(xué)習(xí)一下“Tensorflow可視化工具Tensorboard怎么用”這篇文章吧。

當(dāng)使用Tensorflow訓(xùn)練大量深層的神經(jīng)網(wǎng)絡(luò)時(shí),我們希望去跟蹤神經(jīng)網(wǎng)絡(luò)的整個(gè)訓(xùn)練過(guò)程中的信息,比如迭代的過(guò)程中每一層參數(shù)是如何變化與分布的,比如每次循環(huán)參數(shù)更新后模型在測(cè)試集與訓(xùn)練集上的準(zhǔn)確率是如何的,比如損失值的變化情況,等等。如果能在訓(xùn)練的過(guò)程中將一些信息加以記錄并可視化得表現(xiàn)出來(lái),是不是對(duì)我們探索模型有更深的幫助與理解呢?

Tensorflow官方推出了可視化工具Tensorboard,可以幫助我們實(shí)現(xiàn)以上功能,它可以將模型訓(xùn)練過(guò)程中的各種數(shù)據(jù)匯總起來(lái)存在自定義的路徑與日志文件中,然后在指定的web端可視化地展現(xiàn)這些信息。

1. Tensorboard介紹

1.1 Tensorboard的數(shù)據(jù)形式

Tensorboard可以記錄與展示以下數(shù)據(jù)形式:
(1)標(biāo)量Scalars
(2)圖片Images
(3)音頻Audio
(4)計(jì)算圖Graph
(5)數(shù)據(jù)分布Distribution
(6)直方圖Histograms
(7)嵌入向量Embeddings

1.2 Tensorboard的可視化過(guò)程

(1)首先肯定是先建立一個(gè)graph,你想從這個(gè)graph中獲取某些數(shù)據(jù)的信息

(2)確定要在graph中的哪些節(jié)點(diǎn)放置summary operations以記錄信息
使用tf.summary.scalar記錄標(biāo)量
使用tf.summary.histogram記錄數(shù)據(jù)的直方圖
使用tf.summary.distribution記錄數(shù)據(jù)的分布圖
使用tf.summary.image記錄圖像數(shù)據(jù)
….

(3)operations并不會(huì)去真的執(zhí)行計(jì)算,除非你告訴他們需要去run,或者它被其他的需要run的operation所依賴(lài)。而我們上一步創(chuàng)建的這些summary operations其實(shí)并不被其他節(jié)點(diǎn)依賴(lài),因此,我們需要特地去運(yùn)行所有的summary節(jié)點(diǎn)。但是呢,一份程序下來(lái)可能有超多這樣的summary 節(jié)點(diǎn),要手動(dòng)一個(gè)一個(gè)去啟動(dòng)自然是及其繁瑣的,因此我們可以使用tf.summary.merge_all去將所有summary節(jié)點(diǎn)合并成一個(gè)節(jié)點(diǎn),只要運(yùn)行這個(gè)節(jié)點(diǎn),就能產(chǎn)生所有我們之前設(shè)置的summary data。

(4)使用tf.summary.FileWriter將運(yùn)行后輸出的數(shù)據(jù)都保存到本地磁盤(pán)中

(5)運(yùn)行整個(gè)程序,并在命令行輸入運(yùn)行tensorboard的指令,之后打開(kāi)web端可查看可視化的結(jié)果

2.Tensorboard使用案例

不出所料呢,我們還是使用最基礎(chǔ)的識(shí)別手寫(xiě)字體的案例~

不過(guò)本案例也是先不去追求多美好的模型,只是建立一個(gè)簡(jiǎn)單的神經(jīng)網(wǎng)絡(luò),讓大家了解如何使用Tensorboard。

2.1 導(dǎo)入包,定義超參數(shù),載入數(shù)據(jù)

(1)首先還是導(dǎo)入需要的包:

from __future__ import absolute_import
from __future__ import division
from __future__ import print_function

import argparse
import sys

import tensorflow as tf

from tensorflow.examples.tutorials.mnist import input_data

(2)定義固定的超參數(shù),方便待使用時(shí)直接傳入。如果你問(wèn),這個(gè)超參數(shù)為啥要這樣設(shè)定,如何選擇最優(yōu)的超參數(shù)?這個(gè)問(wèn)題此處先不討論,超參數(shù)的選擇在機(jī)器學(xué)習(xí)建模中最常用的方法就是“交叉驗(yàn)證法”。而現(xiàn)在假設(shè)我們已經(jīng)獲得了最優(yōu)的超參數(shù),設(shè)置學(xué)利率為0.001,dropout的保留節(jié)點(diǎn)比例為0.9,最大循環(huán)次數(shù)為1000.

另外,還要設(shè)置兩個(gè)路徑,第一個(gè)是數(shù)據(jù)下載下來(lái)存放的地方,一個(gè)是summary輸出保存的地方。

max_step = 1000 # 最大迭代次數(shù)
learning_rate = 0.001  # 學(xué)習(xí)率
dropout = 0.9  # dropout時(shí)隨機(jī)保留神經(jīng)元的比例

data_dir = ''  # 樣本數(shù)據(jù)存儲(chǔ)的路徑
log_dir = ''  # 輸出日志保存的路徑

(3)接著加載數(shù)據(jù),下載數(shù)據(jù)是直接調(diào)用了tensorflow提供的函數(shù)read_data_sets,輸入兩個(gè)參數(shù),第一個(gè)是下載到數(shù)據(jù)存儲(chǔ)的路徑,第二個(gè)one_hot表示是否要將類(lèi)別標(biāo)簽進(jìn)行獨(dú)熱編碼。它首先回去找制定目錄下有沒(méi)有這個(gè)數(shù)據(jù)文件,沒(méi)有的話(huà)才去下載,有的話(huà)就直接讀取。所以第一次執(zhí)行這個(gè)命令,速度會(huì)比較慢。

mnist = input_data.read_data_sets(data_dir,one_hot=True)

2.2 創(chuàng)建特征與標(biāo)簽的占位符,保存輸入的圖片數(shù)據(jù)到summary

(1)創(chuàng)建tensorflow的默認(rèn)會(huì)話(huà):

sess = tf.InteractiveSession()

(2)創(chuàng)建輸入數(shù)據(jù)的占位符,分別創(chuàng)建特征數(shù)據(jù)x,標(biāo)簽數(shù)據(jù)y_

在tf.placeholder()函數(shù)中傳入了3個(gè)參數(shù),第一個(gè)是定義數(shù)據(jù)類(lèi)型為float32;第二個(gè)是數(shù)據(jù)的大小,特征數(shù)據(jù)是大小784的向量,標(biāo)簽數(shù)據(jù)是大小為10的向量,None表示不定死大小,到時(shí)候可以傳入任何數(shù)量的樣本;第3個(gè)參數(shù)是這個(gè)占位符的名稱(chēng)。

with tf.name_scope('input'):
  x = tf.placeholder(tf.float32, [None, 784], name='x-input')
  y_ = tf.placeholder(tf.float32, [None, 10], name='y-input')

(3)使用tf.summary.image保存圖像信息

特征數(shù)據(jù)其實(shí)就是圖像的像素?cái)?shù)據(jù)拉升成一個(gè)1*784的向量,現(xiàn)在如果想在tensorboard上還原出輸入的特征數(shù)據(jù)對(duì)應(yīng)的圖片,就需要將拉升的向量轉(zhuǎn)變成28 * 28 * 1的原始像素了,于是可以用tf.reshape()直接重新調(diào)整特征數(shù)據(jù)的維度:

將輸入的數(shù)據(jù)轉(zhuǎn)換成[28 * 28 * 1]的shape,存儲(chǔ)成另一個(gè)tensor,命名為image_shaped_input。

為了能使圖片在tensorbord上展示出來(lái),使用tf.summary.image將圖片數(shù)據(jù)匯總給tensorbord。

tf.summary.image()中傳入的第一個(gè)參數(shù)是命名,第二個(gè)是圖片數(shù)據(jù),第三個(gè)是最多展示的張數(shù),此處為10張

with tf.name_scope('input_reshape'):
  image_shaped_input = tf.reshape(x, [-1, 28, 28, 1])
  tf.summary.image('input', image_shaped_input, 10)

2.3 創(chuàng)建初始化參數(shù)的方法,與參數(shù)信息匯總到summary的方法

(1)在構(gòu)建神經(jīng)網(wǎng)絡(luò)模型中,每一層中都需要去初始化參數(shù)w,b,為了使代碼簡(jiǎn)介美觀(guān),最好將初始化參數(shù)的過(guò)程封裝成方法function。

創(chuàng)建初始化權(quán)重w的方法,生成大小等于傳入的shape參數(shù),標(biāo)準(zhǔn)差為0.1,正態(tài)分布的隨機(jī)數(shù),并且將它轉(zhuǎn)換成tensorflow中的variable返回。

def weight_variable(shape):
  """Create a weight variable with appropriate initialization."""
  initial = tf.truncated_normal(shape, stddev=0.1)
  return tf.Variable(initial)

創(chuàng)建初始換偏執(zhí)項(xiàng)b的方法,生成大小為傳入?yún)?shù)shape的常數(shù)0.1,并將其轉(zhuǎn)換成tensorflow的variable并返回

def bias_variable(shape):
  """Create a bias variable with appropriate initialization."""
  initial = tf.constant(0.1, shape=shape)
  return tf.Variable(initial)

(2)我們知道,在訓(xùn)練的過(guò)程在參數(shù)是不斷地在改變和優(yōu)化的,我們往往想知道每次迭代后參數(shù)都做了哪些變化,可以將參數(shù)的信息展現(xiàn)在tenorbord上,因此我們專(zhuān)門(mén)寫(xiě)一個(gè)方法來(lái)收錄每次的參數(shù)信息。

def variable_summaries(var):
  """Attach a lot of summaries to a Tensor (for TensorBoard visualization)."""
  with tf.name_scope('summaries'):
   # 計(jì)算參數(shù)的均值,并使用tf.summary.scaler記錄
   mean = tf.reduce_mean(var)
   tf.summary.scalar('mean', mean)

   # 計(jì)算參數(shù)的標(biāo)準(zhǔn)差
   with tf.name_scope('stddev'):
    stddev = tf.sqrt(tf.reduce_mean(tf.square(var - mean)))
   # 使用tf.summary.scaler記錄記錄下標(biāo)準(zhǔn)差,最大值,最小值
   tf.summary.scalar('stddev', stddev)
   tf.summary.scalar('max', tf.reduce_max(var))
   tf.summary.scalar('min', tf.reduce_min(var))
   # 用直方圖記錄參數(shù)的分布
   tf.summary.histogram('histogram', var)

2.4 構(gòu)建神經(jīng)網(wǎng)絡(luò)層

(1)創(chuàng)建第一層隱藏層
創(chuàng)建一個(gè)構(gòu)建隱藏層的方法,輸入的參數(shù)有:
input_tensor:特征數(shù)據(jù)
input_dim:輸入數(shù)據(jù)的維度大小
output_dim:輸出數(shù)據(jù)的維度大小(=隱層神經(jīng)元個(gè)數(shù))
layer_name:命名空間
act=tf.nn.relu:激活函數(shù)(默認(rèn)是relu)

def nn_layer(input_tensor, input_dim, output_dim, layer_name, act=tf.nn.relu):
  """Reusable code for making a simple neural net layer.
  It does a matrix multiply, bias add, and then uses relu to nonlinearize.
  It also sets up name scoping so that the resultant graph is easy to read,
  and adds a number of summary ops.
  """
  # 設(shè)置命名空間
  with tf.name_scope(layer_name):
   # 調(diào)用之前的方法初始化權(quán)重w,并且調(diào)用參數(shù)信息的記錄方法,記錄w的信息
   with tf.name_scope('weights'):
    weights = weight_variable([input_dim, output_dim])
    variable_summaries(weights)
   # 調(diào)用之前的方法初始化權(quán)重b,并且調(diào)用參數(shù)信息的記錄方法,記錄b的信息
   with tf.name_scope('biases'):
    biases = bias_variable([output_dim])
    variable_summaries(biases)
   # 執(zhí)行wx+b的線(xiàn)性計(jì)算,并且用直方圖記錄下來(lái)
   with tf.name_scope('linear_compute'):
    preactivate = tf.matmul(input_tensor, weights) + biases
    tf.summary.histogram('linear', preactivate)
   # 將線(xiàn)性輸出經(jīng)過(guò)激勵(lì)函數(shù),并將輸出也用直方圖記錄下來(lái)
   activations = act(preactivate, name='activation')
   tf.summary.histogram('activations', activations)

   # 返回激勵(lì)層的最終輸出
   return activations

調(diào)用隱層創(chuàng)建函數(shù)創(chuàng)建一個(gè)隱藏層:輸入的維度是特征的維度784,神經(jīng)元個(gè)數(shù)是500,也就是輸出的維度。

hidden1 = nn_layer(x, 784, 500, 'layer1')

(2)創(chuàng)建一個(gè)dropout層,,隨機(jī)關(guān)閉掉hidden1的一些神經(jīng)元,并記錄keep_prob

with tf.name_scope('dropout'):
  keep_prob = tf.placeholder(tf.float32)
  tf.summary.scalar('dropout_keep_probability', keep_prob)
  dropped = tf.nn.dropout(hidden1, keep_prob)

(3)創(chuàng)建一個(gè)輸出層,輸入的維度是上一層的輸出:500,輸出的維度是分類(lèi)的類(lèi)別種類(lèi):10,激活函數(shù)設(shè)置為全等映射identity.(暫且先別使用softmax,會(huì)放在之后的損失函數(shù)中一起計(jì)算)

y = nn_layer(dropped, 500, 10, 'layer2', act=tf.identity)

2.5 創(chuàng)建損失函數(shù)

使用tf.nn.softmax_cross_entropy_with_logits來(lái)計(jì)算softmax并計(jì)算交叉熵?fù)p失,并且求均值作為最終的損失值。

with tf.name_scope('loss'):
  # 計(jì)算交叉熵?fù)p失(每個(gè)樣本都會(huì)有一個(gè)損失)
  diff = tf.nn.softmax_cross_entropy_with_logits(labels=y_, logits=y)
  with tf.name_scope('total'):
   # 計(jì)算所有樣本交叉熵?fù)p失的均值
   cross_entropy = tf.reduce_mean(diff)

tf.summary.scalar('loss', cross_entropy)

2.6 訓(xùn)練,并計(jì)算準(zhǔn)確率

(1)使用AdamOptimizer優(yōu)化器訓(xùn)練模型,最小化交叉熵?fù)p失

with tf.name_scope('train'):
  train_step = tf.train.AdamOptimizer(learning_rate).minimize(
    cross_entropy)

(2)計(jì)算準(zhǔn)確率,并用tf.summary.scalar記錄準(zhǔn)確率

with tf.name_scope('accuracy'):
  with tf.name_scope('correct_prediction'):
   # 分別將預(yù)測(cè)和真實(shí)的標(biāo)簽中取出最大值的索引,弱相同則返回1(true),不同則返回0(false)
   correct_prediction = tf.equal(tf.argmax(y, 1), tf.argmax(y_, 1))
  with tf.name_scope('accuracy'):
   # 求均值即為準(zhǔn)確率
   accuracy = tf.reduce_mean(tf.cast(correct_prediction, tf.float32))
tf.summary.scalar('accuracy', accuracy)

2.7 合并summary operation, 運(yùn)行初始化變量

將所有的summaries合并,并且將它們寫(xiě)到之前定義的log_dir路徑

# summaries合并
merged = tf.summary.merge_all()
# 寫(xiě)到指定的磁盤(pán)路徑中
train_writer = tf.summary.FileWriter(log_dir + '/train', sess.graph)
test_writer = tf.summary.FileWriter(log_dir + '/test')

# 運(yùn)行初始化所有變量
tf.global_variables_initializer().run()

2.8 準(zhǔn)備訓(xùn)練與測(cè)試的兩個(gè)數(shù)據(jù),循環(huán)執(zhí)行整個(gè)graph進(jìn)行訓(xùn)練與評(píng)估

(1)現(xiàn)在我們要獲取之后要喂人的數(shù)據(jù).
如果是train==true,就從mnist.train中獲取一個(gè)batch樣本,并且設(shè)置dropout值;
如果是不是train==false,則獲取minist.test的測(cè)試數(shù)據(jù),并且設(shè)置keep_prob為1,即保留所有神經(jīng)元開(kāi)啟。

def feed_dict(train):
  """Make a TensorFlow feed_dict: maps data onto Tensor placeholders."""
  if train:
   xs, ys = mnist.train.next_batch(100)
   k = dropout
  else:
   xs, ys = mnist.test.images, mnist.test.labels
   k = 1.0
  return {x: xs, y_: ys, keep_prob: k}

(2)開(kāi)始訓(xùn)練模型。
每隔10步,就進(jìn)行一次merge, 并打印一次測(cè)試數(shù)據(jù)集的準(zhǔn)確率,然后將測(cè)試數(shù)據(jù)集的各種summary信息寫(xiě)進(jìn)日志中。
每隔100步,記錄原信息
其他每一步時(shí)都記錄下訓(xùn)練集的summary信息并寫(xiě)到日志中。

for i in range(max_steps):
  if i % 10 == 0: # 記錄測(cè)試集的summary與accuracy
   summary, acc = sess.run([merged, accuracy], feed_dict=feed_dict(False))
   test_writer.add_summary(summary, i)
   print('Accuracy at step %s: %s' % (i, acc))
  else: # 記錄訓(xùn)練集的summary
   if i % 100 == 99: # Record execution stats
    run_options = tf.RunOptions(trace_level=tf.RunOptions.FULL_TRACE)
    run_metadata = tf.RunMetadata()
    summary, _ = sess.run([merged, train_step],
               feed_dict=feed_dict(True),
               options=run_options,
               run_metadata=run_metadata)
    train_writer.add_run_metadata(run_metadata, 'step%03d' % i)
    train_writer.add_summary(summary, i)
    print('Adding run metadata for', i)
   else: # Record a summary
    summary, _ = sess.run([merged, train_step], feed_dict=feed_dict(True))
    train_writer.add_summary(summary, i)
 train_writer.close()
 test_writer.close()

2.9 執(zhí)行程序,tensorboard生成可視化

(1)運(yùn)行整個(gè)程序,在程序中定義的summary node就會(huì)將要記錄的信息全部保存在指定的logdir路徑中了,訓(xùn)練的記錄會(huì)存一份文件,測(cè)試的記錄會(huì)存一份文件。

(2)進(jìn)入linux命令行,運(yùn)行以下代碼,等號(hào)后面加上summary日志保存的路徑(在程序第一步中就事先自定義了)

tensorboard --logdir=

執(zhí)行命令之后會(huì)出現(xiàn)一條信息,上面有網(wǎng)址,將網(wǎng)址在瀏覽器中打開(kāi)就可以看到我們定義的可視化信息了。:

Starting TensorBoard 41 on port 6006
(You can navigate to http://127.0.1.1:6006)

將http://127.0.1.1:6006在瀏覽器中打開(kāi),成功的話(huà)如下:

Tensorflow可視化工具Tensorboard怎么用

于是我們可以從這個(gè)web端看到所有程序中定義的可視化信息了。

2.10 Tensorboard Web端解釋

看到最上面橙色一欄的菜單,分別有7個(gè)欄目,都一一對(duì)應(yīng)著我們程序中定義信息的類(lèi)型。

(1)SCALARS

展示的是標(biāo)量的信息,我程序中用tf.summary.scalars()定義的信息都會(huì)在這個(gè)窗口。

回顧本文程序中定義的標(biāo)量有:準(zhǔn)確率accuracy,dropout的保留率,隱藏層中的參數(shù)信息,已經(jīng)交叉熵?fù)p失。這些都在SCLARS窗口下顯示出來(lái)了。

點(diǎn)開(kāi)accuracy,紅線(xiàn)表示test集的結(jié)果,藍(lán)線(xiàn)表示train集的結(jié)果,可以看到隨著循環(huán)次數(shù)的增加,兩者的準(zhǔn)確度也在通趨勢(shì)增加,值得注意的是,在0到100次的循環(huán)中準(zhǔn)確率快速激增,100次之后保持微弱地上升趨勢(shì),直達(dá)1000次時(shí)會(huì)到達(dá)0.967左右

Tensorflow可視化工具Tensorboard怎么用

點(diǎn)開(kāi)dropout,紅線(xiàn)表示的測(cè)試集上的保留率始終是1,藍(lán)線(xiàn)始終是0.9

Tensorflow可視化工具Tensorboard怎么用

點(diǎn)開(kāi)layer1,查看第一個(gè)隱藏層的參數(shù)信息。

Tensorflow可視化工具Tensorboard怎么用 

以上,第一排是偏執(zhí)項(xiàng)b的信息,隨著迭代的加深,最大值越來(lái)越大,最小值越來(lái)越小,與此同時(shí),也伴隨著方差越來(lái)越大,這樣的情況是我們?cè)敢饪吹降?,神?jīng)元之間的參數(shù)差異越來(lái)越大。因?yàn)槔硐氲那闆r下每個(gè)神經(jīng)元都應(yīng)該去關(guān)注不同的特征,所以他們的參數(shù)也應(yīng)有所不同。

第二排是權(quán)值w的信息,同理,最大值,最小值,標(biāo)準(zhǔn)差也都有與b相同的趨勢(shì),神經(jīng)元之間的差異越來(lái)越明顯。w的均值初始化的時(shí)候是0,隨著迭代其絕對(duì)值也越來(lái)越大。

點(diǎn)開(kāi)layer2


Tensorflow可視化工具Tensorboard怎么用

點(diǎn)開(kāi)loss,可見(jiàn)損失的降低趨勢(shì)。

Tensorflow可視化工具Tensorboard怎么用

(2)IMAGES

在程序中我們?cè)O(shè)置了一處保存了圖像信息,就是在轉(zhuǎn)變了輸入特征的shape,然后記錄到了image中,于是在tensorflow中就會(huì)還原出原始的圖片了:

Tensorflow可視化工具Tensorboard怎么用 

整個(gè)窗口總共展現(xiàn)了10張圖片(根據(jù)代碼中的參數(shù)10)

(3)AUDIO

這里展示的是聲音的信息,但本案例中沒(méi)有涉及到聲音的。

(4)GRAPHS

這里展示的是整個(gè)訓(xùn)練過(guò)程的計(jì)算圖graph,從中我們可以清洗地看到整個(gè)程序的邏輯與過(guò)程。

Tensorflow可視化工具Tensorboard怎么用 

單擊某個(gè)節(jié)點(diǎn),可以查看屬性,輸入,輸出等信息

Tensorflow可視化工具Tensorboard怎么用 

單擊節(jié)點(diǎn)上的“+”字樣,可以看到該節(jié)點(diǎn)的內(nèi)部信息。

Tensorflow可視化工具Tensorboard怎么用 

另外還可以選擇圖像顏色的兩者模型,基于結(jié)構(gòu)的模式,相同的節(jié)點(diǎn)會(huì)有同樣的顏色,基于預(yù)算硬件的,同一個(gè)硬件上的會(huì)有相同顏色。

Tensorflow可視化工具Tensorboard怎么用

(5)DISTRIBUTIONS

這里查看的是神經(jīng)元輸出的分布,有激活函數(shù)之前的分布,激活函數(shù)之后的分布等。

Tensorflow可視化工具Tensorboard怎么用

(6)HISTOGRAMS

也可以看以上數(shù)據(jù)的直方圖

Tensorflow可視化工具Tensorboard怎么用

以上是“Tensorflow可視化工具Tensorboard怎么用”這篇文章的所有內(nèi)容,感謝各位的閱讀!相信大家都有了一定的了解,希望分享的內(nèi)容對(duì)大家有所幫助,如果還想學(xué)習(xí)更多知識(shí),歡迎關(guān)注億速云行業(yè)資訊頻道!

向AI問(wèn)一下細(xì)節(jié)

免責(zé)聲明:本站發(fā)布的內(nèi)容(圖片、視頻和文字)以原創(chuàng)、轉(zhuǎn)載和分享為主,文章觀(guān)點(diǎn)不代表本網(wǎng)站立場(chǎng),如果涉及侵權(quán)請(qǐng)聯(lián)系站長(zhǎng)郵箱:is@yisu.com進(jìn)行舉報(bào),并提供相關(guān)證據(jù),一經(jīng)查實(shí),將立刻刪除涉嫌侵權(quán)內(nèi)容。

AI