亚洲三级在线,国产黄色网址在线观看,www.天天操,污视频在线观看网站

      <menuitem id="xujay"><address id="xujay"></address></menuitem><bdo id="xujay"></bdo>
      <track id="xujay"></track>

      位置: IT常識(shí) - 正文

      【Tensorflow深度學(xué)習(xí)】實(shí)現(xiàn)手寫字體識(shí)別、預(yù)測實(shí)戰(zhàn)(附源碼和數(shù)據(jù)集 超詳細(xì))(tensorflow gan)

      編輯:rootadmin
      【Tensorflow深度學(xué)習(xí)】實(shí)現(xiàn)手寫字體識(shí)別、預(yù)測實(shí)戰(zhàn)(附源碼和數(shù)據(jù)集 超詳細(xì))

      推薦整理分享【Tensorflow深度學(xué)習(xí)】實(shí)現(xiàn)手寫字體識(shí)別、預(yù)測實(shí)戰(zhàn)(附源碼和數(shù)據(jù)集 超詳細(xì))(tensorflow gan),希望有所幫助,僅作參考,歡迎閱讀內(nèi)容。

      文章相關(guān)熱門搜索詞:tensorflowgpu,tensorflow deeplab,tensorflow v1,tensorflow dlib,tensorflow deeplab,tensorflow deeplab,tensorflow deepfm,tensorflow 1,內(nèi)容如對您有幫助,希望把文章鏈接給更多的朋友!

      需要源碼和數(shù)據(jù)集請點(diǎn)贊關(guān)注收藏后評(píng)論區(qū)留言私信~~~

      一、數(shù)據(jù)集簡介

      下面用到的數(shù)據(jù)集基于IAM數(shù)據(jù)集的英文手寫字體自動(dòng)識(shí)別應(yīng)用,IAM數(shù)據(jù)庫主要包含手寫的英文文本,可用于訓(xùn)練和測試手寫文本識(shí)別以及執(zhí)行作者的識(shí)別和驗(yàn)證,該數(shù)據(jù)庫在ICDAR1999首次發(fā)布,并據(jù)此開發(fā)了基于隱馬爾可夫模型的手寫句子識(shí)別系統(tǒng),并于ICPR2000發(fā)布,IAM包含不受約束的手寫文本,以300dpi的分辨率掃描并保存為具有256級(jí)灰度的PNG圖像,IAM手寫數(shù)據(jù)庫目前最新的版本為3.0,其主要結(jié)構(gòu)如下

      約700位作家貢獻(xiàn)筆跡樣本

      超過1500頁掃描文本

      約6000個(gè)獨(dú)立標(biāo)記的句子

      超過一萬行獨(dú)立標(biāo)記的文本

      超過十萬個(gè)獨(dú)立標(biāo)記的空間

      展示如下 有許多張手寫照片?

      ?

      ?

      二、實(shí)現(xiàn)步驟?1:數(shù)據(jù)清洗

      刪除文件中備注說明以及錯(cuò)誤結(jié)果,統(tǒng)計(jì)正確筆跡圖形的數(shù)量,最后將整理后的數(shù)據(jù)進(jìn)行隨機(jī)無序化處理

      2:樣本分類

      接下來對數(shù)據(jù)進(jìn)行分類 按照8:1:1的比例將樣本數(shù)據(jù)集分為三類數(shù)據(jù)集,分別是訓(xùn)練數(shù)據(jù)集 驗(yàn)證數(shù)據(jù)集和測試數(shù)據(jù)集,針對訓(xùn)練數(shù)據(jù)集進(jìn)行訓(xùn)練可以獲得模型,而測試數(shù)據(jù)集主要用于測試模型的有效性

      3:實(shí)現(xiàn)字符和數(shù)字映射

      利用Tensorflow庫的Keras包的StringLookup函數(shù)實(shí)現(xiàn)從字符到數(shù)字的映射 主要參數(shù)說明如下

      【Tensorflow深度學(xué)習(xí)】實(shí)現(xiàn)手寫字體識(shí)別、預(yù)測實(shí)戰(zhàn)(附源碼和數(shù)據(jù)集 超詳細(xì))(tensorflow gan)

      max_tokens:單詞大小的最大值

      num_oov_indices:out of vocabulary的大小

      mask_token:表示屏蔽輸入的大小

      oov_token:僅當(dāng)invert為True時(shí)使用 OOV索引的返回值 默認(rèn)為UNK

      4:進(jìn)行卷積變化?

      通過Conv2D函數(shù)實(shí)現(xiàn)二維卷積變換 主要參數(shù)說明如下

      filters:整數(shù)值 代表輸出空間的維度

      kernel_size:一個(gè)整數(shù)或元組列表 指定卷積窗口的高度和寬度

      strides:一個(gè)整數(shù)或元組列表 指定卷積沿高度和寬度的步幅

      padding:輸出圖像的填充方式

      activation:激活函數(shù)

      三、效果展示?

      讀取部分手寫樣本的真實(shí)文本信息如下

      訓(xùn)練結(jié)束后 得到訓(xùn)練模型 導(dǎo)入測試手寫文本數(shù)據(jù) 進(jìn)行手寫筆跡預(yù)測 部分結(jié)果如下

      四、結(jié)果總結(jié)?

      觀察預(yù)測結(jié)果可知,基于均值池化以及訓(xùn)練過程預(yù)警極值,大部分的英文字符能夠得到準(zhǔn)確的預(yù)測判定,訓(xùn)練的精度持續(xù)得到改善,損失值控制在比較合理的區(qū)間內(nèi),沒有發(fā)生預(yù)測準(zhǔn)確度連續(xù)多次無法改進(jìn)的場景,模型穩(wěn)定性較好

      五、代碼

      部分代碼如下 需要全部代碼請點(diǎn)贊關(guān)注收藏后評(píng)論區(qū)留言私信~~~

      from tensorflow.keras.layers.experimental.preprocessing import StringLookupfrom tensorflow import kerasimport matplotlib.pyplot as pltimport tensorflow as tfimport numpy as npimport osplt.rcParams['font.family'] = ['Microsoft YaHei']np.random.seed(0)tf.random.set_seed(0)# ## 切分?jǐn)?shù)據(jù)# In[ ]:corpus_read = open("data/words.txt", "r").readlines()corpus = []length_corpus=0for word in corpus_read: if lit(" ")[1] == "ok"): corpus.append(word)np.random.shuffle(corpus)length_corpus=len(corpus)print(length_corpus)corpus[400:405]# 劃分?jǐn)?shù)據(jù),按照 80:10:10 比例分配給訓(xùn)練:有效:測試 數(shù)據(jù)# In[ ]:train_flag = int(0.8 * len(corpus))test_flag = int(0.9 * len(corpus))train_data = corpus[:train_flag]validation_data = corpus[train_flag:test_flag]test_data = corpus[test_flag:]train_data_len=len(train_data)validation_data_len=len(validation_data)test_data_len=len(test_data)print("訓(xùn)練樣本大小:", train_data_len)print("驗(yàn)證樣本大小:", validation_data_len)print("測試樣本大小:",test_data_len )# In[ ]:image_direct = "data\images"def retrieve_image_info(data): image_location = [] sample = [] for (i, corpus_row) in enumerate(data): corpus_strip = corpus_row.strip() corpus_strip = corpus_strip.split(" ") image_name = corpus_strip[0] leve1 = image_name.split("-")[0] leve2 = image_name.split("-")[1] image_location_detail = os.path.join( image_direct, leve1, leve1 + "-" + leve2, image_name + ".png" ) if os.path.getsize(image_location_detail) >0 : image_location.append(image_location_detail) sample.append(corpus_row.split("\n")[0]) print("手寫圖像路徑:",image_location[0],"手寫文本信息:",sample[0]) return image_location, sampletrain_image, train_tag = retrieve_image_info(train_data)validation_image, validation_tag = retrieve_image_info(validation_data)test_image, test_tag = retrieve_image_info(test_data)# In[ ]:# 查找訓(xùn)練數(shù)據(jù)詞匯最大長度train_tag_extract = []vocab = set()max_len = 0for tag in train_tag: tag = tag.split(" ")[-1].strip() for i in tag: vocab.add(i) max_len = max(max_len, len(tag)) train_tag_extract.append(tag)print("最大長度: ", max_len)print("單詞大小: ", len(vocab))print("單詞內(nèi)容: ", vocab)train_tag_extract[40:45]# In[ ]:print(train_tag[50:54])print(validation_tag[10:14])print(test_tag[80:84])def extract_tag_info(tags): extract_tag = [] for tag in tags: tag = tag.split(" ")[-1].strip() extract_tag.append(tag) return extract_tagtrain_tag_tune = extract_tag_info(train_tag)validation_tag_tune = extract_tag_info(validation_tag)test_tag_tune = extract_tag_info(test_tag)print(train_tag_tune[50:54])print(validation_tag_tune[10:14])print(test_tag_tune[80:84])# In[ ]:AUTOTUNE = tf.data.AUTOTUNE# 映射單詞到數(shù)字string_to_no = StringLookup(vocabulary=list(vocab), invert=False)# 映射數(shù)字到單詞no_map_string = StringLookup( vocabulary=string_to_no.get_vocabulary(), invert=True)# In[ ]:def distortion_free_resize(image, img_size): w, h = img_size image = tf.image.resize(image, size=(h, w), preserve_aspect_ratio=True, antialias=False, name=None) # 計(jì)算填充區(qū)域大小 pad_height = h - tf.shape(image)[0] pad_width = w - tf.shape(image)[1] if pad_height % 2 != 0: height = pad_height // 2 pad_height_top = height + 1 pad_height_bottom = height else: pad_height_top = pad_height_bottom = pad_height // 2 if pad_width % 2 != 0: width = pad_width // 2 pad_width_left = width + 1 pad_width_right = width else: pad_width_left = pad_width_right = pad_width // 2 image = tf.pad( image, paddings=[ [pad_height_top, pad_height_bottom], [pad_width_left, pad_width_right], [0, 0], ], ) image = tf.transpose(image, perm=[1, 0, 2]) image = tf.image.flip_left_right(image) return image# In[ ]:batch_size = 64padding_token = 99image_width = 128image_height = 32def preprocess_image(image_path, img_size=(image_width, image_height)): image = tf.io.read_file(image_path) image = tf.image.decode_png(image, 1) image = distortion_free_resize(image, img_size) image = tf.cast(image, tf.float32) / 255.0 return imagedef vectorize_tag(tag): tag = string_to_no(tf.strings.unicode_split(tag, input_encoding="UTF-8")) length = tf.shape(tag)[0] pad_amount = max_len - length tag = tf.pad(tag, paddings=[[0, pad_amount]], constant_values=padding_token) return tagdef process_images_tags(image_path, tag): image = preprocess_image(image_path) tag = vectorize_tag(tag) return {"image": image, "tag": tag}def prepare_dataset(image_paths, tags): dataset = tf.data.Dataset.from_tensor_slices((image_paths, tags)).map( process_images_tags, num_parallel_calls=AUTOTUNE ) return dataset.batch(batch_size).cache().prefetch(AUTOTUNE)# In[ ]:train_final = prepare_dataset(train_image, train_tag_extract )validation_final = prepare_dataset(validation_image, validation_tag_tune )test_final = prepare_dataset(test_image, test_tag_tune )print(train_final.take(1))print(train_final)# In[ ]:plt.rcParams['font.family'] = ['Microsoft YaHei']for data in train_final.take(1): images, tags = data["image"], data["tag"] _, ax = plt.subplots(4, 4, figsize=(15, 8)) for i in range(16): img = images[i] img = tf.image.flip_left_right(img) img = tf.transpose(img, perm=[1, 0, 2]) img = (img * 255.0).numpy().clip(0, 255).astype(np.uint8) img = img[:, :, 0] tag = tags[i] indices = tf.gather(tag, tf.where(tf.math.not_equal(tag, padding_token))) tag = tf.strings.reduce_join(no_map_string(indices)) tag = tag.numpy().decode("utf-8") ax[i // 4, i % 4].imshow(img) ax[i // 4, i % 4].set_title(u"真實(shí)文本:%s"%tag) ax[i // 4, i % 4].axis("on")plt.show()# In[ ]:class CTCLoss(keras.layers.Layer): def call(self, y_true, y_pred): batch_len = tf.cast(tf.shape(y_true)[0], dtype="int64") input_length = tf.cast(tf.shape(y_pred)[1], dtype="int64") tag_length = tf.cast(tf.shape(y_true)[1], dtype="int64") input_length = input_length * tf.ones(shape=(batch_len, 1), dtype="int64") tag_length = tag_length * tf.ones(shape=(batch_len, 1), dtype="int64") loss = keras.backend.ctc_batch_cost(y_true, y_pred, input_length, tag_length) self.add_loss(loss) return lossdef generate_model(): # Inputs to the model input_img = keras.Input(shape=(image_width, image_height, 1), name="image") tags = keras.layers.Input(name="tag", shape=(None,)) # First conv block. t = keras.layers.Conv2D( filters=32, kernel_size=(3, 3), activation="relu", kernel_initializer="he_normal", padding="same", name="ConvolutionLayer1")(input_img) t = keras.layers.AveragePooling2D((2, 2), name="AveragePooling_one")(t) # Second conv block. t = keras.layers.Conv2D( filters=64, kernel_size=(3, 3), activation="relu", kernel_initializer="he_normal", padding="same", name="ConvolutionLayer2")(t) t = keras.layers.AveragePooling2D((2, 2), name="AveragePooling_two")(t) #re_shape = (t,[(image_width // 4), -1]) #tf.dtypes.cast(t, tf.int32) re_shape = ((image_width // 4), (image_height // 4) * 64) t = keras.layers.Reshape(target_shape=re_shape, name="reshape")(t) t = keras.layers.Dense(64, activation="relu", name="denseone",use_bias=False, kernel_initializer='glorot_uniform', bias_initializer='zeros')(t) t = keras.layers.Dropout(0.4)(t) # RNNs. t = keras.layers.Bidirectional( keras.layers.LSTM(128, return_sequences=True, dropout=0.4) )(t) t = keras.layers.Bidirectional( keras.layers.LSTM(64, return_sequences=True, dropout=0.4) )(t) t = keras.layers.Dense( len(string_to_no.get_vocabulary())+2, activation="softmax", name="densetwo" )(t) # Add CTC layer for calculating CTC loss at each step. output = CTCLoss(name="ctc_loss")(tags, t) # Define the model. model = keras.models.Model( inputs=[input_img, tags], outputs=output, name="handwriting" ) # Optimizer. # Compile the model and return. model.compile(optimizer=keras.optimizers.Adam()) return model# Get the model.model = generate_model()model.summary()# In[ ]:validation_images = []validation_tags = []for batch in validation_final: validation_images.append(batch["image"]) validation_tags.append(batch["tag"])# In[ ]:#epochs = 20 model = generate_model()prediction_model = keras.models.Model( model.get_layer(name="image").input, model.get_layer(name="densetwo").output)#edit_distance_callback = EarlyStoppingAtLoss()epochs = 60early_stopping_patience = 10# Add early stoppingearly_stopping = keras.callbacks.EarlyStopping( monitor="val_loss", patience=early_stopping_patience, restore_best_weights=True)# Train the model.history = model.fit( train_final, validation_data=validation_final, epochs=60,callbacks=[early_stopping])# ## Inference# In[ ]:plt.rcParams['font.family'] = ['Microsoft YaHei']# A utility function to decode the output of the network.def handwriting_prediction(pred): input_len = np.ones(pred.shape[0]) * pred.shape[1] = [] for j in results: j = tf.gather(j, tf.where(tf.math.not_equal(j, -1))) j = tf.strings.reduce_join(no_map_string(j)).numpy().decode("utf-8") output_text.append(j) return output_text# Let's check results on some test samples.for test in test_final.take(1): test_images = test["image"] _, ax = plt.subplots(4, 4, figsize=(15, 8)) predit = prediction_model.predict(test_images) predit_text = handwriting_prediction(predit) for k in range(16): img = test_images[k] img = tf.image.flip_left_right(img) img = tf.transpose(img, perm=[1, 0, 2]) img = (img * 255.0).numpy().clip(0, 255).astype(np.uint8) img = img[:, :, 0] title = f"預(yù)測結(jié)果: {predit_text[k]}"# In[ ]:

      創(chuàng)作不易 覺得有幫助請點(diǎn)贊關(guān)注收藏~~~

      本文鏈接地址:http://jsrtzm.cn/zhishi/299085.html 轉(zhuǎn)載請保留說明!

      上一篇:無人駕駛學(xué)習(xí)筆記-LeGO-LOAM 算法源碼學(xué)習(xí)總結(jié)(無人駕駛基礎(chǔ)知識(shí))

      下一篇:開源代碼 | FMCW-MIMO雷達(dá)仿真MATLAB(開源代碼網(wǎng)站github)

    1. garageband可以刪除嗎(garageband有安卓版嗎)

      garageband可以刪除嗎(garageband有安卓版嗎)

    2. 手機(jī)卡取出后,微信還能正常使用嗎(手機(jī)卡取出后微信聊天記錄還在嗎)

      手機(jī)卡取出后,微信還能正常使用嗎(手機(jī)卡取出后微信聊天記錄還在嗎)

    3. switch充電沒反應(yīng)(switch充電沒反應(yīng) 底座不亮)

      switch充電沒反應(yīng)(switch充電沒反應(yīng) 底座不亮)

    4. ipone11里面配耳機(jī)嗎(iphone 11配的耳機(jī)是什么樣)

      ipone11里面配耳機(jī)嗎(iphone 11配的耳機(jī)是什么樣)

    5. 微信號(hào)容易被盜嗎(微信號(hào)容易被盜走嗎)

      微信號(hào)容易被盜嗎(微信號(hào)容易被盜走嗎)

    6. 美團(tuán)賬號(hào)異常如何解除(美團(tuán)賬號(hào)異常如何解除視頻)

      美團(tuán)賬號(hào)異常如何解除(美團(tuán)賬號(hào)異常如何解除視頻)

    7. 手機(jī)出現(xiàn)藍(lán)色斑點(diǎn)并且不斷擴(kuò)大(手機(jī)出現(xiàn)藍(lán)色斑點(diǎn),并且不斷擴(kuò)大怎么辦)

      手機(jī)出現(xiàn)藍(lán)色斑點(diǎn)并且不斷擴(kuò)大(手機(jī)出現(xiàn)藍(lán)色斑點(diǎn),并且不斷擴(kuò)大怎么辦)

    8. 微信怎么設(shè)置未成年模式(微信怎么設(shè)置未知狀態(tài))

      微信怎么設(shè)置未成年模式(微信怎么設(shè)置未知狀態(tài))

    9. 網(wǎng)易云有桌面歌詞嗎(網(wǎng)易云有桌面歌詞顯示嗎)

      網(wǎng)易云有桌面歌詞嗎(網(wǎng)易云有桌面歌詞顯示嗎)

    10. 拼多多訪客下降原因(拼多多沒有訪客量怎么辦)

      拼多多訪客下降原因(拼多多沒有訪客量怎么辦)

    11. 路由器多少瓦(家用路由器多少瓦)

      路由器多少瓦(家用路由器多少瓦)

    12. xr要不要更新13.3

      xr要不要更新13.3

    13. 安卓手機(jī)綠洲怎么保存圖片(綠洲安卓怎么復(fù)制鏈接)

      安卓手機(jī)綠洲怎么保存圖片(綠洲安卓怎么復(fù)制鏈接)

    14. 柵格化圖層是什么意思(柵格化圖層樣式怎么弄)

      柵格化圖層是什么意思(柵格化圖層樣式怎么弄)

    15. 手機(jī)跳屏怎么解決(手機(jī)跳屏怎么修復(fù))

      手機(jī)跳屏怎么解決(手機(jī)跳屏怎么修復(fù))

    16. 滴滴快車怎樣接大單(滴滴快車怎樣接單)

      滴滴快車怎樣接大單(滴滴快車怎樣接單)

    17. qq注銷能找回來嗎(qq注銷后能否找回)

      qq注銷能找回來嗎(qq注銷后能否找回)

    18. 手機(jī)wps沒保存怎么恢復(fù)(手機(jī)wps明明保存了卻沒了)

      手機(jī)wps沒保存怎么恢復(fù)(手機(jī)wps明明保存了卻沒了)

    19. gprs信號(hào)弱是怎么回事(gprs信號(hào)弱怎么辦)

      gprs信號(hào)弱是怎么回事(gprs信號(hào)弱怎么辦)

    20. 抵扣寶100卡怎么使用(抵扣卡圖片)

      抵扣寶100卡怎么使用(抵扣卡圖片)

    21. 如何關(guān)閉網(wǎng)絡(luò)位置服務(wù)(如何關(guān)閉手機(jī)的網(wǎng)絡(luò)位置服務(wù))

      如何關(guān)閉網(wǎng)絡(luò)位置服務(wù)(如何關(guān)閉手機(jī)的網(wǎng)絡(luò)位置服務(wù))

    22. 小米手環(huán)4能打電話嗎(小米7手環(huán)有哪些功能)

      小米手環(huán)4能打電話嗎(小米7手環(huán)有哪些功能)

    23. 視覺機(jī)械臂自主抓取全流程(視覺機(jī)械臂操作視頻)

      視覺機(jī)械臂自主抓取全流程(視覺機(jī)械臂操作視頻)

    24. 【超用心整理】Markdown常用語法介紹,看這一個(gè)就夠了

      【超用心整理】Markdown常用語法介紹,看這一個(gè)就夠了

    25. 如何成為一般納稅人的條件
    26. 小規(guī)模納稅人收到專票后如何處理
    27. 電子承兌匯票兌現(xiàn)
    28. 交強(qiáng)險(xiǎn)必須交車船使用稅嗎
    29. 實(shí)名制車票抵扣怎么操作
    30. 出口退稅收到退稅款會(huì)計(jì)分錄
    31. 個(gè)人所得稅經(jīng)營所得申報(bào)
    32. 自產(chǎn)貨物用于本企業(yè)在建工程交增值稅不
    33. 經(jīng)營活動(dòng)現(xiàn)金流增加的原因
    34. 會(huì)議費(fèi)怎么做會(huì)計(jì)分錄
    35. 政府補(bǔ)助的核算方法名詞解釋
    36. 調(diào)撥入庫的固定資產(chǎn)是否繳稅?
    37. 中國銀行結(jié)算包括哪些內(nèi)容?怎么做會(huì)計(jì)分錄?
    38. 用于展覽的存貨如何做會(huì)計(jì)處理?
    39. 小規(guī)模納稅人按月申報(bào)還是按季申報(bào)
    40. 資本公積與實(shí)收資本和盈余公積有什么區(qū)別?
    41. 企業(yè)所得稅收入大于增值稅收入的原因
    42. 跨行業(yè)能開發(fā)票嗎
    43. 出售舊機(jī)器設(shè)備,發(fā)生凈收益會(huì)計(jì)分錄
    44. 延期付款利息到底有沒有稅務(wù)風(fēng)險(xiǎn)
    45. 以前年度少計(jì)提收入
    46. 個(gè)人獨(dú)資企業(yè)所得稅繳納標(biāo)準(zhǔn)
    47. 增值稅防偽稅控系統(tǒng)管理辦法
    48. 固定資產(chǎn)暫估入賬后續(xù)調(diào)整
    49. 應(yīng)交稅費(fèi)的會(huì)計(jì)處理2018
    50. 銷售額的意思
    51. 華為手機(jī)hms提醒
    52. 小規(guī)模納稅人減征額怎么計(jì)算
    53. 被投資企業(yè)所在地什么意思
    54. 疫情 統(tǒng)籌
    55. 增值稅專用發(fā)票丟了怎么補(bǔ)救
    56. windows11郵件
    57. 什么是suv汽車
    58. babylon.exe進(jìn)程有什么作用 babylon進(jìn)程是什么文件
    59. 便秘怎么辦 女性
    60. php目錄操作
    61. 利息費(fèi)用可扣除什么
    62. 最常用的成本核算方法表
    63. 只用vue可以做網(wǎng)站不?
    64. 銷售退回的處理方法
    65. win11更新71
    66. cmd 過濾命令
    67. 文明手語動(dòng)作
    68. 汽車4s店廠家返修流程
    69. python 自定義異常
    70. 租車出差差旅費(fèi)標(biāo)準(zhǔn)
    71. 每個(gè)公司都要交五險(xiǎn)一金嗎
    72. 高速公路通行費(fèi)增值稅稅率
    73. sql server功能選擇
    74. 企業(yè)合并發(fā)生的法律服務(wù)費(fèi)影響利潤總額嗎
    75. 收到項(xiàng)目資本金入什么科目
    76. 微信支付寶等第三方支付的優(yōu)缺點(diǎn)
    77. 收到發(fā)票并支付貨款怎么做賬
    78. 所得稅怎么收取
    79. 定期定額戶增值稅起征點(diǎn)
    80. 多記財(cái)務(wù)費(fèi)用怎么調(diào)整
    81. 金稅盤鎖死341101
    82. 受托代銷商品款是什么意思
    83. 運(yùn)費(fèi)在會(huì)計(jì)科目中屬于什么費(fèi)用
    84. 銀行匯票結(jié)算業(yè)務(wù)
    85. mysql中的字符串函數(shù)
    86. 無比強(qiáng)大的思維
    87. xp如何把ie瀏覽器設(shè)置為默認(rèn)瀏覽器
    88. 對于微軟用戶來說,為了防止計(jì)算機(jī)意外故障
    89. docker部署zookeeper集群
    90. win7任務(wù)欄顏色怎么改成藍(lán)色
    91. 怎么設(shè)置虛擬硬盤儲(chǔ)存路徑
    92. win7重新安裝windows
    93. linux備份的文件bak如何恢復(fù)
    94. awk命令詳解
    95. 關(guān)于session的用法哪些是錯(cuò)誤的
    96. jquery教程w3c
    97. border:none與border:0使用區(qū)別
    98. cd跳轉(zhuǎn)不到目錄
    99. android自定義權(quán)限申請彈窗
    100. js 不用var
    101. viewpager自動(dòng)滑動(dòng)
    102. 廣東國家電子稅務(wù)全電發(fā)票
    103. 廣東省電子職業(yè)技術(shù)學(xué)院
    104. 什么是核心征管申報(bào)
    105. 免責(zé)聲明:網(wǎng)站部分圖片文字素材來源于網(wǎng)絡(luò),如有侵權(quán),請及時(shí)告知,我們會(huì)第一時(shí)間刪除,謝謝! 郵箱:opceo@qq.com

      鄂ICP備2023003026號(hào)

      網(wǎng)站地圖: 企業(yè)信息 工商信息 財(cái)稅知識(shí) 網(wǎng)絡(luò)常識(shí) 編程技術(shù)

      友情鏈接: 武漢網(wǎng)站建設(shè)