那曲檬骨新材料有限公司

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

如何在STM32上運行AI應用

米爾電子 ? 2024-09-30 08:00 ? 次閱讀

1.X-Linux-AI概述

X-LINUX-AI 是 STM32 MPU OpenSTLinux 擴展包,面向 STM32MP1 和 STM32MP2 系列微處理器人工智能。它包含 Linux AI 框架,以及用于開始一些基本使用案例的應用程序示例。

X-LINUX-AI 中提供的示例包括一系列用于圖像分類、對象檢測、語義分割和人體姿勢估計的優化模型。X-LINUX-AI 中作為預構建二進制文件提供的人臉識別應用程序基于 STMicroelectronics 重新訓練的模型。

這些示例依賴于基于 TensorFlow Lite 推理引擎、ONNX 運行時、OpenVX 或 Google Edge TPU 加速器的 STAI_MPU API。它們都支持 Python 腳本和 C/C++ 應用程序。本文內容將通過MYD-LD25X來演示這些示例demo。

1.1.硬件資源

帶有燒錄好MYiR發布鏡像的MYD-LD25X開發板

MY-LVDS070C屏幕或者任意HDMI接口顯示器

MY-CAM003M米爾MIPI-CSI攝像頭模塊

1.2.軟件資源

本文內容操作均在MYD-LD25X開發板的調試串口執行,請確保先完成了MYD-LD25X快速使用指南(也就是開發板附帶的小冊子)上的基本內容,并且需要確保開發板能夠聯通互聯網,提供網絡的方式有多種,可以是能夠連接互聯網的路由器,也可以是Wifi,Wifi具體的連接方式可以查閱發布資料中《MYD-LD25X Linux 軟件評估指南》Wifi的STA連接章節。

2.開發板安裝X-Linux-AI

本章主要介紹如何在MYD-LD25X開發板上安裝X-Linux-AI以及相關demo組件等。

2.1.配置準備環境

1)獲取校準參數

如果在MYD-LD25X使用LVDS屏幕,初次使用進入weston需要校準屏幕,校準的自動化腳本操作默認添加在autorun腳本中,如果已經執行過校準操作或者使用HDMI屏幕,則可以跳過該小節內容。

運行autorun.sh腳本執行校準操作:

#autorun.sh


執行后lvds屏幕會出現觸摸點位,以此點擊后完成校準,之后使用屏幕無需再次校準。

2)關閉HMI

避免出現顯示沖突,在MYD-LD25X登錄后,執行以下操作關閉mxapp2程序也就是MYiR的HMI界面:

# killall mxapp2


并且將autorun腳本中啟動mxapp2的行注釋掉,下次啟動后就不會自動運行了:

# vi /usr/bin/autorun.sh#!/bin/sh...省略sync#/usr/sbin/mxapp2 &

3)更新軟件源

執行以下命令更新軟件源:

# apt updateThe software package is provided AS IS, and by downloading it, you agree to be bound to the terms of the software license agreement (SLA).The detailed content licenses can be found at https://wiki.st.com/stm32mpu/wiki/OpenSTLinux_licenses.Get:1 http://packages.openstlinux.st.com/5.1 mickledore InRelease [5,723 B]Get:2 http://packages.openstlinux.st.com/5.1 mickledore/main arm64 Packages [725 kB]Get:3 http://packages.openstlinux.st.com/5.1 mickledore/updates arm64 Packages [38.2 kB]Get:4 http://packages.openstlinux.st.com/5.1 mickledore/untested arm64 Packages [1,338 kB]Fetched 2,107 kB in 3s (690 kB/s)Reading package lists... DoneBuilding dependency tree... Done1 package can be upgraded. Run 'apt list --upgradable' to see it.

更新源需要MYD-LD25X連接互聯網,請確保網絡通暢。執行上述命令時,可能會出現以下問題導致更新錯誤:

l同步時間問題

E: Release file for http://packages.openstlinux.st.com/5.1/dists/mickledore/InRelease is not valid yet (invalid for another 1383d 8h 14min 14s). Updates for this repository will not be applied.E: Release file for http://extra.packages.openstlinux.st.com/AI/5.1/dists/mickledore/InRelease is not valid yet (invalid for another 1381d 8h 10min 47s). Updates for this repository will not be applied.

出現上述問題的原因是當前開發板時間沒有和網絡時間成功同步,執行以下操作同步網絡時間,首先修改timesyncd.conf配置文件,新增FallbackNTP授時中心網站,按如下所示修改:

# vi /etc/systemd/timesyncd.conf...[Time]#NTP=FallbackNTP=ntp.ntsc.ac.cn cn.ntp.org.cn...

然后輸入如下命令重啟同步時間服務:

# systemctl restart systemd-timesyncd

再次輸入date查看時間是否成功更新,根據網絡情況不同部分情況可能需要一定時間同步:

# date2023年 03月 03日 星期五 17:50:37 CST# date2024年 09月 20日 星期五 15:45:15 CST

lDNS問題

運行apt update后可能會出現以下問題:

# apt update...Err:1 http://packages.openstlinux.st.com/5.1 mickledore InReleaseTemporary failure resolving 'packages.openstlinux.st.com'Reading package lists... DoneBuilding dependency tree... DoneAll packages are up to date.W: Failed to fetch http://packages.openstlinux.st.com/5.1/dists/mickledore/InRelease Temporary failure resolving 'packages.openstlinux.st.com'W: Some index files failed to download. They have been ignored, or old ones used instead.

該問題需要修改/etc/resolve.conf,在文件中添加如下內容:

# vi /etc/resolv.conf...nameserver 8.8.8.8nameserver 8.8.4.4

2.2.安裝x-linux-ai-tool

當完成環境配置后,輸入以下命令安裝x-linux-ai-tool:

# apt-get install -y x-linux-ai-tool

安裝完成后,輸入以下命令確認是否安裝完成:

# x-linux-ai -vX-LINUX-AI version: v5.1.0

關于x-linux-ai工具的使用,可以通過x-linux-ai -h查看或者瀏覽官方wiki:

X-LINUX-AI Tool - stm32mpu

2.3.安裝 X-LINUX-AI演示包

要開始使用 X-linux-ai,需要安裝 X-linux-ai 演示包,該包提供了針對所用特定目標優化的所有 Ai 框架、應用程序示例、工具和實用程序:

# x-linux-ai -i packagegroup-x-linux-ai-demo

2.4.運行demo啟動器

ST的官方demo啟動器在MYD-LD25X默認已經移除,為了方便使用X-linu-ai的demo應用,需要重新添加隨weston自啟動的官方demo展示程序。

進入/usr/local/weston-start-at-startup目錄,并新建start_up_demo_launcher.sh腳本,按照如下操作添加對應內容到腳本中:

# cd /usr/local/weston-start-at-startup# vi start_up_demo_launcher.sh#!/bin/shDEFAULT_DEMO_APPLICATION_GTK=/usr/local/demo/launch-demo-gtk.shif [ -e /etc/default/demo-launcher ]; thensource /etc/default/demo-launcherif [ ! -z "$DEFAULT_DEMO_APPLICATION" ]; then$DEFAULT_DEMO_APPLICATIONelse$DEFAULT_DEMO_APPLICATION_GTKfielse$DEFAULT_DEMO_APPLICATION_GTKfi

然后添加運行權限給腳本:

# chmod a+x start_up_demo_launcher.sh

最后重啟weston服務后,可以看到啟動器成功運行:

# systemctl restart weston-graphical-session.service


02beac9a-7ebf-11ef-bb4b-92fbcf53809c.png

圖2-1. demo啟動器-1

02e84d98-7ebf-11ef-bb4b-92fbcf53809c.png

圖2-2. demo啟動器-2

3.運行AI 應用實例

本章節將簡單展示上文安裝后的幾個Demo具體情況,在執行Demo前,需要準備好1.1小節的硬件資源。

以下demo運行都需要使用到MIPI-CSI攝像頭,適用于MYD-LD25X開發板的攝像頭型號為米爾的MY-CAM003M,在使用該攝像頭前需要按照以下命令來初始化配置并事先預覽確保攝像頭能夠正常工作。

進入/etc/myir_test目錄,運行myir_camera_play腳本:

# cd /etc/myir_test# ./myir_camera_play

執行后,屏幕上會出現攝像頭預覽畫面,請確保畫面顯示正常,如果存在問題,請查閱《MYD-LD25X Linux 軟件評估指南》中關于MIPI-CSI攝像頭的部分檢查攝像頭連接情況等來排查問題,如有需要請咨詢米爾技術支持。

3.1.圖像分類

圖像分類神經網絡模型可以識別圖像所代表的對象。它將圖像分類為不同的類別。該應用展示了一個計算機視覺的圖像分類用例,從相機輸入(/dev/videox)捕獲幀,并通過OpenVX、TFLite或ONNX框架解析的神經網絡模型進行分析。

3.1.1.通過demo啟動器運行

可以通過點擊demo啟動器中的Image Classifiction樣例圖標來運行該demo,默認情況下,通過2.3小節安裝的是OpenVX的應用程序,并且由C/C++和Python兩種。

0317926a-7ebf-11ef-bb4b-92fbcf53809c.png

圖3-1. 圖像分類

3.1.2.通過命令運行

圖像分類的C/C++和Python應用程序位于/usr/local/x-linux-ai/image-classification/目錄中,可以通過運行程序加-h參數來獲取更多幫助信息

# cd /usr/local/x-linux-ai/image-classification/# ls -lastai_mpu_image_classification #C++運行程序stai_mpu_image_classification.py #Python運行程序

為了簡化demo的啟動,在應用程序目錄下有配置好的啟動腳本:

使用相機輸入啟動圖像分類demo

launch_bin_image_classification.sh #C++運行程序launch_python_image_classification.sh #Python運行程序

使用圖片輸入啟動圖像分類demo

launch_bin_image_classification_testdata.sh #C++運行程序launch_python_image_classification_testdata.sh #Python運行程序

3.1.3.demo展示

通過demo啟動器啟動默認為使用相機輸入,和命令啟動中使用相機輸入的腳本運行結果一致,這里以C/C++程序為例,具體測試情況如下:

# cd /usr/local/x-linux-ai/image-classification# ./launch_bin_image_classification.sh #或者點擊demo啟動器圖標

033099b8-7ebf-11ef-bb4b-92fbcf53809c.png

圖3-2. 攝像機輸入

運行圖片輸入的程序腳本前,需要準備識別的圖片,這里以一張泰迪熊的圖片為例,圖片放置目錄為/usr/local/x-linux-ai/image-classification/models/mobilenet/testdata,然后運行腳本,這里以C/C++應用程序為例。

# cd /usr/local/x-linux-ai/image-classification/models/mobilenet/testdata# ls -la-rwxr--r-- 1 root root 102821 9 20 23:14 teddy.jpg# cd /usr/local/x-linux-ai/image-classification# ./launch_bin_image_classification_testdata.sh

運行結果如下:

035f2332-7ebf-11ef-bb4b-92fbcf53809c.png

圖3-3. 圖片輸入

3.2.對象檢測

該應用展示了一個計算機視覺的對象檢測用例,從相機輸入(/dev/videox)捕獲幀,并通過OpenVX、TFLite或ONNX框架解析的神經網絡模型進行分析。使用Gstreamer管道來流式傳輸相機幀(使用v4l2src),顯示預覽(使用gtkwaylandsink),并執行神經網絡推理(使用appsink)。

3.2.1.通過demo啟動器運行

可以通過點擊demo啟動器中的Object Detection樣例圖標來運行該demo,默認情況下,通過2.3小節安裝的是OpenVX的應用程序,并且由C/C++和Python兩種。

03a7c16e-7ebf-11ef-bb4b-92fbcf53809c.png

圖3-4. 對象檢測

3.2.2.通過命令運行

對象檢測的C/C++和Python應用程序位于/usr/local/x-linux-ai/object-detection/目錄中,可以通過運行程序加-h參數來獲取更多幫助信息:

# cd /usr/local/x-linux-ai/object-detection/# ls -lastai_mpu_object_detection #C++運行程序stai_mpu_object_detection.py #Python運行程序

為了簡化demo的啟動,在應用程序目錄下有配置好的啟動腳本:

使用相機輸入啟動對象檢測demo

launch_bin_object_detection.sh #C++運行程序launch_python_object_detection.sh #Python運行程序

使用圖片輸入啟動對象檢測demo

launch_bin_object_detection_testdata.sh #C++運行程序launch_python_object_detection_testdata.sh #Python運行程序

3.2.3.demo展示

通過demo啟動器啟動默認為使用相機輸入,和命令啟動中使用相機輸入的腳本運行結果一致,這里以C/C++程序為例,具體測試情況如下:

# cd /usr/local/x-linux-ai/object-detection# ./launch_bin_object_detection.sh #或者點擊demo啟動器圖標

03c55968-7ebf-11ef-bb4b-92fbcf53809c.png

圖3-5. 攝像機輸入

運行圖片輸入的程序腳本前,需要準備識別的圖片,這里以一張泰迪熊和小貓的圖片為例,圖片放置目錄為:

/usr/local/x-linux-ai/object-detection/models/coco_ssd_mobilenet/testdata

然后運行腳本,這里以C/C++應用程序為例。

# cd /usr/local/x-linux-ai/object-detection/models/coco_ssd_mobilenet/testdata# ls -la-rwxr--r-- 1 root root 102821 9 20 23:14 teddy-and-cat.jpg# cd /usr/local/x-linux-ai/object-detection# ./launch_bin_object_detection_testdata.sh

運行結果如下:

03e9f340-7ebf-11ef-bb4b-92fbcf53809c.png

圖3-6. 圖片輸入

3.3.姿勢估計

該應用展示了一個計算機視覺的人體姿態估計用例,從相機輸入(/dev/videox)捕獲幀,并通過OpenVX框架解析的神經網絡模型進行分析。該應用使用的模型是從stm32-hotspot ultralytics的GitHub分支下載的ST YoloV8n-pose。

3.3.1.通過demo啟動器運行

可以通過點擊demo啟動器中的PoseEstimation樣例圖標來運行該demo,默認情況下,通過2.3小節安裝的是OpenVX的應用程序,默認為Python應用程序。

04082e50-7ebf-11ef-bb4b-92fbcf53809c.png

圖3-7. 姿勢估計

3.3.2.通過命令運行

姿勢估計的C/C++和Python應用程序位于/usr/local/x-linux-ai/object-detection/目錄中,可以通過運行程序加-h參數來獲取更多幫助信息:

# cd /usr/local/x-linux-ai/pose-estimation/# ls -lastai_mpu_pose_estimation.py

為了簡化demo的啟動,在應用程序目錄下有配置好的啟動腳本:

使用相機輸入啟動姿勢估計demo

launch_python_pose_estimation.sh


使用圖片輸入啟動姿勢估計demo

launch_python_pose_estimation_testdata.sh

3.3.3.demo展示

通過demo啟動器啟動默認為使用相機輸入,和命令啟動中使用相機輸入的腳本運行結果一致,這里以C/C++程序為例,具體測試情況如下:

# cd /usr/local/x-linux-ai/pose-estimation/# ./launch_python_pose_estimation.sh #或者點擊demo啟動器圖標

04288a56-7ebf-11ef-bb4b-92fbcf53809c.png

圖3-8. 攝像機輸入

運行圖片輸入的程序腳本前,需要準備識別的圖片,這里以一張人跑步的圖片為例,圖片放置目錄為:/usr/local/x-linux-ai/pose-estimation/models/yolov8n_pose/testdata,然后運行腳本,這里以C/C++應用程序為例。

# cd /usr/local/x-linux-ai/pose-estimation/models/yolov8n_pose/testdata# ls -la-rwxr--r-- 1 root root 102821 9 20 23:14 person-run.jpg# cd /usr/local/x-linux-ai/pose-estimation# ./launch_python_pose_estimation_testdata.sh

運行結果如下:

04ea4ae2-7ebf-11ef-bb4b-92fbcf53809c.png

圖3-9. 圖片輸入

3.4.語義分割

該應用展示了一個計算機視覺的語義分割用例,從相機輸入(/dev/videox)捕獲幀,并通過OpenVX框架解析的神經網絡模型進行分析。使用Gstreamer管道來流式傳輸相機幀(使用v4l2src),顯示預覽(使用gtkwaylandsink),并執行神經網絡推理(使用appsink)。推理結果顯示在預覽中,疊加是使用GtkWidget和cairo實現的。該應用使用的模型是從TensorFlow Lite Hub下載的DeepLabV3。

3.4.1.通過demo啟動器運行

可以通過點擊demo啟動器中的Semantic Segmentation樣例圖標來運行該demo,默認情況下,通過2.3小節安裝的是OpenVX的應用程序,默認為Python應用程序。

051f6d76-7ebf-11ef-bb4b-92fbcf53809c.png

圖3-10. 語義分割

3.4.2.通過命令運行

語義分割的C/C++和Python應用程序位于/usr/local/x-linux-ai/object-detection/目錄中,可以通過運行程序加-h參數來獲取更多幫助信息:

# cd /usr/local/x-linux-ai/semantic-segmentation/# ls -lastai_mpu_semantic_segmentation.py

為了簡化demo的啟動,在應用程序目錄下有配置好的啟動腳本:

使用相機輸入啟動語義分割demo

launch_python_semantic_segmentation.sh

使用圖片輸入啟動語義分割demo

launch_python_semantic_segmentation_testdata.sh

3.4.3.demo展示

通過demo啟動器啟動默認為使用相機輸入,和命令啟動中使用相機輸入的腳本運行結果一致,這里以C/C++程序為例,具體測試情況如下:

# cd /usr/local/x-linux-ai/semantic-segmentation/# ./launch_python_semantic_segmentation.sh #或者點擊demo啟動器圖標

053db77c-7ebf-11ef-bb4b-92fbcf53809c.png

圖3-11. 攝像機輸入

運行圖片輸入的程序腳本前,需要準備識別的圖片,這里以一張人正在辦公的圖片為例,圖片放置目錄為:

/usr/local/x-linux-ai/semantic-segmentation/models/deeplabv3/testdata

然后運行腳本,這里以C/C++應用程序為例。

# cd /usr/local/x-linux-ai/semantic-segmentation/models/deeplabv3/testdata# ls -la-rwxr--r-- 1 root root 102821 9 20 23:14 person-work.jpg# cd /usr/local/x-linux-ai/semantic-segmentation# ./launch_python_semantic_segmentation_testdata.sh

運行結果如下:

055efa7c-7ebf-11ef-bb4b-92fbcf53809c.png

圖3-12. 圖片輸入

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • STM32
    +關注

    關注

    2272

    文章

    10923

    瀏覽量

    357549
  • AI
    AI
    +關注

    關注

    87

    文章

    31513

    瀏覽量

    270323
  • 開發板
    +關注

    關注

    25

    文章

    5121

    瀏覽量

    98189
收藏 人收藏

    評論

    相關推薦

    EMC是如何在Linux運行

    電磁兼容是什么?EMC有哪些特性?EMC是如何在Linux運行的?
    發表于 10-11 06:28

    請問UCOSII如何在STM32上面運行

    請問UCOSII如何在STM32上面運行
    發表于 11-29 07:31

    LiteOS如何在STM32運行

    LiteOS調測功能是什么?LiteOS如何在STM32運行
    發表于 11-30 06:55

    何在RK3399搭建Tengine AI推理框架呢

    Tengine是什么?如何在RK3399這一 Arm64 平臺上搭建 Tengine AI 推理框架,并運行圖像識別相關應用?
    發表于 03-07 07:53

    何在基于Arm的設備運行游戲AI

    的工作原理以及游戲如何在基于 Arm 的設備運行。培訓策略是時候開始訓練了一切準備就緒后,就該開始訓練了。訓練區域的許多副本可以在場景中實例化。這加快了訓練,允許環境同時收集許多經驗。這可以簡單地通過實例
    發表于 08-15 15:43

    何在STM32開始使用ML &AI的選項?

    我對在 STM32 使用 ML 和 AI 很感興趣,在花了一些時間查看 ST 文檔后,我認為使用 NanoEdge AI Studio + ST 板是幫助我理解事物的最快方法。據我所
    發表于 12-06 07:35

    何在嵌入式設備運行高性能Java

    何在嵌入式設備運行高性能Java
    發表于 03-28 09:43 ?16次下載

    何在工具導入和運行藍牙溫度的演示

    了解如何在工具導入和運行藍牙溫度演示示例,并對IoTNode智能應用上的數據進行可視化處理。本視頻假設您已經設置了入門指南視頻中的工具和軟件。
    的頭像 發表于 06-17 06:19 ?2930次閱讀
    如<b class='flag-5'>何在</b>工具<b class='flag-5'>上</b>導入和<b class='flag-5'>運行</b>藍牙溫度的演示

    關于C程序源代碼是如何在硬件運行的?

    C程序源代碼是如何在硬件運行的?
    的頭像 發表于 02-05 12:37 ?2932次閱讀

    如何輕松幾步實現在STM32運行FreeRTOS任務

    輕松幾步實現在STM32運行FreeRTOS任務
    的頭像 發表于 03-01 12:07 ?8540次閱讀
    如何輕松幾步實現在<b class='flag-5'>STM32</b><b class='flag-5'>上</b><b class='flag-5'>運行</b>FreeRTOS任務

    何在arduino IDE安裝STM32的開發板工具包

    何在arduino IDE安裝STM32的開發板工具包
    發表于 11-01 17:51 ?3次下載

    海思AI芯片(Hi3519A/3559A)學習(四)如何在3519A板子運行sample code

    本系列為華為海思海思AI芯片(Hi3519A/3559A)方案學習系列之四。這篇文章將介紹如何在3519A板子運行sample code。作者:ltshan139
    發表于 01-26 19:32 ?13次下載
    海思<b class='flag-5'>AI</b>芯片(Hi3519A/3559A)學習(四)如<b class='flag-5'>何在</b>3519A板子<b class='flag-5'>上</b><b class='flag-5'>運行</b>sample code

    何在xWR1xxx芯片運行mmw demo

    何在xWR1xxx芯片運行mmw demo
    發表于 11-01 08:27 ?0次下載
    如<b class='flag-5'>何在</b>xWR1xxx芯片<b class='flag-5'>上</b><b class='flag-5'>運行</b>mmw demo

    何在KV260快速體驗Vitsi AI圖像分類示例程序

    本文首先將會對Vitis統一軟件平臺和Vitsi AI進行簡單介紹,然后介紹如何在KV260上部署DPU鏡像,最后在KV260 DPU鏡像運行Vitis
    的頭像 發表于 09-12 10:02 ?1712次閱讀
    如<b class='flag-5'>何在</b>KV260<b class='flag-5'>上</b>快速體驗Vitsi <b class='flag-5'>AI</b>圖像分類示例程序

    何在OpenMV生態系統中集成STM32Cube.AI生成的代碼

    電子發燒友網站提供《如何在OpenMV生態系統中集成STM32Cube.AI生成的代碼.pdf》資料免費下載
    發表于 09-20 09:55 ?0次下載
    如<b class='flag-5'>何在</b>OpenMV生態系統中集成<b class='flag-5'>STM32Cube.AI</b>生成的代碼
    菲律宾百家乐官网游戏| 网上百家乐内| 百家乐官网平台那家好| 小孟百家乐的玩法技巧和规则| 百家乐官网赌博网址| 富贵乐园棋牌游戏| 百家乐赢家| 百家乐官网能破解| 澳门博彩网| 赌百家乐的玩法技巧和规则| 帝王百家乐官网新足球平台| 大发888安装包| 合肥百家乐赌博机| 太阳百家乐官网开户| 百家乐官网群博爱彩| 真人棋牌游戏| 百家乐视| 百家乐群东方鸿运| 马牌百家乐官网现金网| 大发888娱乐真钱游戏 下载| 大发百家乐现金| 百家乐官网网上真钱娱乐| 游戏厅百家乐官网软件| 盈禾娱乐城| 广州百家乐桌子| 做生意适合摆放龙龟吗| 玩百家乐官网澳门368娱乐城| 网上真钱棋牌游戏| 高级百家乐官网出千工具| 皇冠网赌球| 六合彩聊天室| 大发888 备用6222.com| 缅甸百家乐官网博彩| 太阳城的故事| 太阳城在线娱乐| 威尼斯人娱乐城易博lm0| 百家乐稳赚的方法| 做生意风水问题| 百家乐官网园是真的不| 马洪刚百家乐官网技巧| 真人百家乐官网赢钱|