求助!opencv2.2+vs2010问题

程序是这样
#include "cv.h"
#include "highgui.h"
int main( int argc, char** argv )
{
IplImage* pImg; //声明IplImage指针
//载入图像
if( argc == 2 && (pImg = cvLoadImage("E:\办公文档\编程\PictureSolve\fruits.bmp", 1)) != 0 )
{

cvNamedWindow( "Image", 1 ); //创建窗口
cvShowImage( "Image", pImg ); //显示图像
cvWaitKey(0); //等待按键
cvDestroyWindow( "Image" );//销毁窗口
cvReleaseImage( &pImg ); //释放图像
return 0;
}
return -1;
}
运行后
“PictureSolve.exe”: 已加载“E:\办公文档\编程\PictureSolve\Debug\PictureSolve.exe”,已加载符号。
“PictureSolve.exe”: 已加载“C:\Windows\SysWOW64\ntdll.dll”,已加载符号(去除源信息)。
“PictureSolve.exe”: 已加载“C:\Windows\SysWOW64\kernel32.dll”,已加载符号(去除源信息)。
“PictureSolve.exe”: 已加载“C:\Windows\SysWOW64\KernelBase.dll”,已加载符号(去除源信息)。
“PictureSolve.exe”: 已加载“C:\Windows\SysWOW64\opencv_core220d.dll”,Cannot find or open the PDB file
“PictureSolve.exe”: 已加载“C:\Windows\SysWOW64\opencv_highgui220d.dll”,Cannot find or open the PDB file
“PictureSolve.exe”: 已加载“C:\Windows\SysWOW64\msvcr100d.dll”,已加载符号。
“PictureSolve.exe”: 已加载“C:\Windows\SysWOW64\user32.dll”,已加载符号(去除源信息)。
“PictureSolve.exe”: 已加载“C:\Windows\SysWOW64\msvcp100d.dll”,已加载符号(去除源信息)。
“PictureSolve.exe”: 已加载“C:\Windows\SysWOW64\win32u.dll”,已加载符号(去除源信息)。
“PictureSolve.exe”: 已加载“C:\Windows\SysWOW64\gdi32.dll”,已加载符号(去除源信息)。
“PictureSolve.exe”: 已加载“C:\Windows\SysWOW64\gdi32full.dll”,已加载符号(去除源信息)。
“PictureSolve.exe”: 已加载“C:\Windows\SysWOW64\msvcp_win.dll”,已加载符号(去除源信息)。
“PictureSolve.exe”: 已加载“C:\Windows\SysWOW64\ucrtbase.dll”,已加载符号(去除源信息)。
“PictureSolve.exe”: 已加载“C:\Windows\SysWOW64\ole32.dll”,已加载符号。
“PictureSolve.exe”: 已加载“C:\Windows\SysWOW64\combase.dll”,已加载符号。
“PictureSolve.exe”: 已加载“C:\Windows\SysWOW64\rpcrt4.dll”,已加载符号(去除源信息)。
“PictureSolve.exe”: 已加载“C:\Windows\SysWOW64\sspicli.dll”,已加载符号(去除源信息)。
“PictureSolve.exe”: 已加载“C:\Windows\SysWOW64\cryptbase.dll”,已加载符号(去除源信息)。
“PictureSolve.exe”: 已加载“C:\Windows\SysWOW64\bcryptprimitives.dll”,已加载符号(去除源信息)。
“PictureSolve.exe”: 已加载“C:\Windows\SysWOW64\sechost.dll”,已加载符号(去除源信息)。
“PictureSolve.exe”: 已加载“C:\Windows\SysWOW64\advapi32.dll”,已加载符号(去除源信息)。
“PictureSolve.exe”: 已加载“C:\Windows\SysWOW64\msvcrt.dll”,已加载符号(去除源信息)。
“PictureSolve.exe”: 已加载“C:\Windows\WinSxS\x86_microsoft.windows.common-controls_6595b64144ccf1df_5.82.16299.309_none_d02304ff5f3aa9de\comctl32.dll”,已加载符号(去除源信息)。
“PictureSolve.exe”: 已加载“C:\Windows\SysWOW64\msvfw32.dll”,已加载符号(去除源信息)。
“PictureSolve.exe”: 已加载“C:\Windows\SysWOW64\avicap32.dll”,已加载符号(去除源信息)。
“PictureSolve.exe”: 已加载“C:\Windows\SysWOW64\shell32.dll”,已加载符号(去除源信息)。
“PictureSolve.exe”: 已加载“C:\Windows\SysWOW64\avifil32.dll”,已加载符号(去除源信息)。
“PictureSolve.exe”: 已加载“C:\Windows\SysWOW64\cfgmgr32.dll”,已加载符号(去除源信息)。
“PictureSolve.exe”: 已加载“C:\Windows\SysWOW64\SHCore.dll”,已加载符号(去除源信息)。
“PictureSolve.exe”: 已加载“C:\Windows\SysWOW64\winmm.dll”,已加载符号(去除源信息)。
“PictureSolve.exe”: 已加载“C:\Windows\SysWOW64\msacm32.dll”,已加载符号(去除源信息)。
“PictureSolve.exe”: 已加载“C:\Windows\SysWOW64\windows.storage.dll”,已加载符号(去除源信息)。
“PictureSolve.exe”: 已加载“C:\Windows\SysWOW64\shlwapi.dll”,已加载符号(去除源信息)。
“PictureSolve.exe”: 已加载“C:\Windows\SysWOW64\kernel.appcore.dll”,已加载符号(去除源信息)。
“PictureSolve.exe”: 已加载“C:\Windows\SysWOW64\winmmbase.dll”,已加载符号(去除源信息)。
“PictureSolve.exe”: 已加载“C:\Windows\SysWOW64\powrprof.dll”,已加载符号(去除源信息)。
“PictureSolve.exe”: 已加载“C:\Windows\SysWOW64\profapi.dll”,已加载符号(去除源信息)。
“PictureSolve.exe”: 已加载“C:\Windows\SysWOW64\imm32.dll”,已加载符号(去除源信息)。
线程 'Win32 线程' (0x1258) 已退出,返回值为 -1 (0xffffffff)。
线程 'Win32 线程' (0x7bc) 已退出,返回值为 -1 (0xffffffff)。
线程 'Win32 线程' (0x4e4) 已退出,返回值为 -1 (0xffffffff)。
线程 'Win32 线程' (0x64c) 已退出,返回值为 -1 (0xffffffff)。
程序“[7680] PictureSolve.exe: 本机”已退出,返回值为 -1 (0xffffffff)。

这个问题怎么解决,拜托前辈们指点迷津!!

1个回答

你的代码中有一句:

 if( argc == 2 ....

这意味着你运行程序时,必须带参数,否则程序一启动就立即退出了,也就是你看到的调试信息。解决办法是,要么去掉 argc == 2,要么在项目属性窗口中,设置程序的启动参数。

Csdn user default icon
上传中...
上传图片
插入图片
抄袭、复制答案,以达到刷声望分或其他目的的行为,在CSDN问答是严格禁止的,一经发现立刻封号。是时候展现真正的技术了!
其他相关推荐
求助!opencv2.2+vs2010问题
程序是这样 #include "cv.h" #include "highgui.h" int main( int argc, char** argv ) { IplImage* pImg; //声明IplImage指针 //载入图像 if( argc == 2 && (pImg = cvLoadImage("E:\\办公文档\\编程\\PictureSolve\\fruits.bmp", 1)) != 0 ) { cvNamedWindow( "Image", 1 ); //创建窗口 cvShowImage( "Image", pImg ); //显示图像 cvWaitKey(0); //等待按键 cvDestroyWindow( "Image" );//销毁窗口 cvReleaseImage( &pImg ); //释放图像 return 0; } return -1; } 运行后 “PictureSolve.exe”: 已加载“E:\办公文档\编程\PictureSolve\Debug\PictureSolve.exe”,已加载符号。 “PictureSolve.exe”: 已加载“C:\Windows\SysWOW64\ntdll.dll”,已加载符号(去除源信息)。 “PictureSolve.exe”: 已加载“C:\Windows\SysWOW64\kernel32.dll”,已加载符号(去除源信息)。 “PictureSolve.exe”: 已加载“C:\Windows\SysWOW64\KernelBase.dll”,已加载符号(去除源信息)。 “PictureSolve.exe”: 已加载“C:\Windows\SysWOW64\opencv_core220d.dll”,Cannot find or open the PDB file “PictureSolve.exe”: 已加载“C:\Windows\SysWOW64\opencv_highgui220d.dll”,Cannot find or open the PDB file “PictureSolve.exe”: 已加载“C:\Windows\SysWOW64\msvcr100d.dll”,已加载符号。 “PictureSolve.exe”: 已加载“C:\Windows\SysWOW64\user32.dll”,已加载符号(去除源信息)。 “PictureSolve.exe”: 已加载“C:\Windows\SysWOW64\msvcp100d.dll”,已加载符号(去除源信息)。 “PictureSolve.exe”: 已加载“C:\Windows\SysWOW64\win32u.dll”,已加载符号(去除源信息)。 “PictureSolve.exe”: 已加载“C:\Windows\SysWOW64\gdi32.dll”,已加载符号(去除源信息)。 “PictureSolve.exe”: 已加载“C:\Windows\SysWOW64\gdi32full.dll”,已加载符号(去除源信息)。 “PictureSolve.exe”: 已加载“C:\Windows\SysWOW64\msvcp_win.dll”,已加载符号(去除源信息)。 “PictureSolve.exe”: 已加载“C:\Windows\SysWOW64\ucrtbase.dll”,已加载符号(去除源信息)。 “PictureSolve.exe”: 已加载“C:\Windows\SysWOW64\ole32.dll”,已加载符号。 “PictureSolve.exe”: 已加载“C:\Windows\SysWOW64\combase.dll”,已加载符号。 “PictureSolve.exe”: 已加载“C:\Windows\SysWOW64\rpcrt4.dll”,已加载符号(去除源信息)。 “PictureSolve.exe”: 已加载“C:\Windows\SysWOW64\sspicli.dll”,已加载符号(去除源信息)。 “PictureSolve.exe”: 已加载“C:\Windows\SysWOW64\cryptbase.dll”,已加载符号(去除源信息)。 “PictureSolve.exe”: 已加载“C:\Windows\SysWOW64\bcryptprimitives.dll”,已加载符号(去除源信息)。 “PictureSolve.exe”: 已加载“C:\Windows\SysWOW64\sechost.dll”,已加载符号(去除源信息)。 “PictureSolve.exe”: 已加载“C:\Windows\SysWOW64\advapi32.dll”,已加载符号(去除源信息)。 “PictureSolve.exe”: 已加载“C:\Windows\SysWOW64\msvcrt.dll”,已加载符号(去除源信息)。 “PictureSolve.exe”: 已加载“C:\Windows\WinSxS\x86_microsoft.windows.common-controls_6595b64144ccf1df_5.82.16299.309_none_d02304ff5f3aa9de\comctl32.dll”,已加载符号(去除源信息)。 “PictureSolve.exe”: 已加载“C:\Windows\SysWOW64\msvfw32.dll”,已加载符号(去除源信息)。 “PictureSolve.exe”: 已加载“C:\Windows\SysWOW64\avicap32.dll”,已加载符号(去除源信息)。 “PictureSolve.exe”: 已加载“C:\Windows\SysWOW64\shell32.dll”,已加载符号(去除源信息)。 “PictureSolve.exe”: 已加载“C:\Windows\SysWOW64\avifil32.dll”,已加载符号(去除源信息)。 “PictureSolve.exe”: 已加载“C:\Windows\SysWOW64\cfgmgr32.dll”,已加载符号(去除源信息)。 “PictureSolve.exe”: 已加载“C:\Windows\SysWOW64\SHCore.dll”,已加载符号(去除源信息)。 “PictureSolve.exe”: 已加载“C:\Windows\SysWOW64\winmm.dll”,已加载符号(去除源信息)。 “PictureSolve.exe”: 已加载“C:\Windows\SysWOW64\msacm32.dll”,已加载符号(去除源信息)。 “PictureSolve.exe”: 已加载“C:\Windows\SysWOW64\windows.storage.dll”,已加载符号(去除源信息)。 “PictureSolve.exe”: 已加载“C:\Windows\SysWOW64\shlwapi.dll”,已加载符号(去除源信息)。 “PictureSolve.exe”: 已加载“C:\Windows\SysWOW64\kernel.appcore.dll”,已加载符号(去除源信息)。 “PictureSolve.exe”: 已加载“C:\Windows\SysWOW64\winmmbase.dll”,已加载符号(去除源信息)。 “PictureSolve.exe”: 已加载“C:\Windows\SysWOW64\powrprof.dll”,已加载符号(去除源信息)。 “PictureSolve.exe”: 已加载“C:\Windows\SysWOW64\profapi.dll”,已加载符号(去除源信息)。 “PictureSolve.exe”: 已加载“C:\Windows\SysWOW64\imm32.dll”,已加载符号(去除源信息)。 线程 'Win32 线程' (0x1258) 已退出,返回值为 -1 (0xffffffff)。 线程 'Win32 线程' (0x7bc) 已退出,返回值为 -1 (0xffffffff)。 线程 'Win32 线程' (0x4e4) 已退出,返回值为 -1 (0xffffffff)。 线程 'Win32 线程' (0x64c) 已退出,返回值为 -1 (0xffffffff)。 程序“[7680] PictureSolve.exe: 本机”已退出,返回值为 -1 (0xffffffff)。 这个问题怎么解决,拜托前辈们指点迷津!!
求助帖!!!ubuntu18.04 安装opencv4.0.0源码无限次出现如下问题
./src/image_opencv.cpp: In function ‘IplImage* image_to_ipl(image)’: ./src/image_opencv.cpp:16:5: error: ‘IPlImage’ was not declared in this scope IPlImage *disp = cvCreateImage(cvSize(im.w,im.h), IPL_DEPTH_8U, im.c); ^~~~~~~~ compilation terminated due to -Wfatal-errors. Makefile:86: recipe for target 'obj/image_opencv.o' failed make: *** [obj/image_opencv.o] Error 1 make: *** Waiting for unfinished jobs.... 但我在src文件夹中的image_opencv.cpp中也引入了#include "opencv2/imgproc/imgproc_c.h" 求助实在不知道怎么办了
新手求助,opencv2.4.9+VS2010测试无法通过,请各位大神解答
#include<iostream> #include<opencv2/core/core.hpp> #include<opencv2/highgui/highgui.hpp> using namespace cv; int main() { Mat img=imread("pp.jpg"); namedWindow("监控图像"); imshow("监控图像",img); waitKey(6000); } 一直显示错误: Dubug Error R6010 _about()has been called (Press Retry to debug the application)
初次配置opencv2.4.2和vs2010配置不成功,求助!!!!
初次学习opencv在配置的时候详细的按照教程来配置的,程序编译也没有问题; 最后运行的时候提示出现以下错误: “opencvtest.exe”: 已加载“D:\vision\opencvtest\Debug\opencvtest.exe”,已加载符号。 “opencvtest.exe”: 已加载“C:\Windows\SysWOW64\ntdll.dll”,已加载符号(去除源信息)。 “opencvtest.exe”: 已加载“C:\Windows\SysWOW64\kernel32.dll”,已加载符号(去除源信息)。 “opencvtest.exe”: 已加载“C:\Windows\SysWOW64\KernelBase.dll”,已加载符号(去除源信息)。 “opencvtest.exe”: 已加载“C:\Windows\SysWOW64\opencv_core242d.dll”,Cannot find or open the PDB file “opencvtest.exe”: 已加载“C:\Windows\SysWOW64\msvcp100d.dll”,已加载符号(去除源信息)。 程序“[6332] opencvtest.exe: 本机”已退出,返回值为 -1073741701 (0xc000007b)![图片说明](https://img-ask.csdn.net/upload/201709/23/1506168670_700950.png)。 这个要怎么解决啊?困扰一下午了,希望大神们带带我这个新手!
caffe编译报错求助!!
ubuntu18.04+cuda9.1+opencv3.2.0+cuNDD7.1.3 make all报错make: *** [.build_release/tools/upgrade_net_proto_text.bin] Error 1 求助!!!!
【小白求助】安卓opencv用分类器对人脸进行识别的一些问题
小白入门,最近在看opencv的人脸识别(分类) 然后按照网上的代码,学习了之后,自己写了一段,发现运行的时候会卡很久,甚至直接退出,并且越用越卡。 我想实现的是对一张图片进行读入,然后加载多个分类器对图片内容进行识别,从而达到分类的目的。 我那个问题困扰了我一天,想来求助大神 我加载人脸识别的模型没问题,但是同时加载两个模型,比如说人脸和上身,就会卡死。 代码分3个部分,分别是MainActivity.java , execDetect.java , Detector.java 以下是MainActivity.java ``` package com.RinGo.IMGfenlei; import android.content.Context; import android.content.Intent; import android.graphics.Bitmap; import android.graphics.BitmapFactory; import android.net.Uri; import android.os.Bundle; import android.os.Environment; import android.provider.MediaStore; import android.util.Log; import android.view.View; import android.widget.Button; import android.widget.ImageButton; import android.widget.TextView; import android.widget.Toast; import androidx.appcompat.app.AppCompatActivity; import org.opencv.android.Utils; import org.opencv.core.Mat; import org.opencv.core.MatOfRect; import org.opencv.core.Rect; import org.opencv.core.Scalar; import org.opencv.imgproc.Imgproc; import org.opencv.objdetect.CascadeClassifier; public class MainActivity extends AppCompatActivity { private Detector frontfaceDetector; private Detector smileDetector; private static String CAMERAIMAGENAME = "image.jpg"; private ImageButton imageButton; private ImageButton imageButton2; private TextView textView; private Bitmap bitmap; private Bitmap rectBitmap; private Bitmap resizeBitmap; private Toast toast; private Button addFile; private Button startDetect; private Button check; private execDetect toDetcet; private String show; @Override protected void onCreate(Bundle savedInstanceState) { super.onCreate(savedInstanceState); setContentView(R.layout.activity_main); textView = (TextView) findViewById(R.id.tv_face); // imageButton = (ImageButton) findViewById(R.id.iv_face); //imageButton.setGravity(Gravity.CENTER_HORIZONTAL | Gravity.CENTER_VERTICAL); // imageButton2 = (ImageButton) findViewById(R.id.iv_face2); // imageButton2.setGravity(Gravity.CENTER_HORIZONTAL | Gravity.CENTER_VERTICAL); toDetcet=new execDetect(); addFile=(Button)findViewById(R.id.addPic); startDetect=(Button)findViewById(R.id.startDetect); check=(Button)findViewById(R.id.check); startDetect.setOnClickListener(new View.OnClickListener() { @Override public void onClick(View v) { // startDetect.setClickable(false); textView.setText("正在检测"); // detect(); Thread d =new Thread(new Runnable() { @Override public void run() { toDetcet.initExecDetect(MainActivity.this,bitmap); // Toast.makeText(MainActivity.this, "initialize succeed", Toast.LENGTH_SHORT).show(); show= toDetcet.startDetect(); // Toast.makeText(MainActivity.this, " succeed", Toast.LENGTH_SHORT).show(); } }); d.run(); textView.setText(show); // startDetect.setClickable(true); } }); check.setOnClickListener(new View.OnClickListener() { @Override public void onClick(View v) { // startDetect.setClickable(false); textView.setText(toDetcet.getReturntoMain()); // startDetect.setClickable(true); } }); addFile.setOnClickListener(new View.OnClickListener() { @Override public void onClick(View v) { // 添加照片 // 打开本地相册 Intent intent1 = new Intent(Intent.ACTION_PICK, android.provider.MediaStore.Images.Media.EXTERNAL_CONTENT_URI); startActivityForResult(intent1, 101); //startActivity(intent1); } }); String strLibraryName = "opencv_java3"; // 不需要添加前缀 libopencv_java3 { try { Log.e("loadLibrary", strLibraryName); System.loadLibrary(strLibraryName); //System.loadLibrary(Core.NATIVE_LIBRARY_NAME); // couldn't find "libopencv_java320.so" } catch (UnsatisfiedLinkError e) { Log.e("loadLibrary", "Native code library failed to load.\n" + e); } catch (Exception e) { Log.e("loadLibrary", "Exception: " + e); } } // frontfaceDetector = new Detector(this, R.raw.haarcascade_frontalface_alt, 6, 0.2F, 0.2F, new Scalar(255, 0, 0, 255)); } /** * 点击添加照片事件 * * @param v */ public void onClick(View v) { int bt_id = v.getId(); switch (bt_id) { /* case R.id.takePhoto: // 拍照 // 打开本地相机 Intent intent2 = new Intent(android.provider.MediaStore.ACTION_IMAGE_CAPTURE); Uri imageUri = Uri.fromFile(new File(Environment.getExternalStorageDirectory(), CAMERAIMAGENAME)); intent2.putExtra(MediaStore.EXTRA_OUTPUT, imageUri); startActivityForResult(intent2, 102); break; */ case R.id.back: this.finish(); break; default: break; } } @Override protected void onActivityResult(int requestCode, int resultCode, Intent data) { super.onActivityResult(requestCode, resultCode, data); // 加判断 不选择照片或者不拍照时不闪退 //Log.e("data", String.valueOf(data)); //if (data == null) //return; bitmap = null; switch (requestCode) { // 选择图片库的图片 case 101: if (resultCode == RESULT_OK) { try { Uri uri = data.getData(); bitmap = MediaStore.Images.Media.getBitmap(this.getContentResolver(), uri); } catch (Exception e) { e.printStackTrace(); } } break; // 表示调用本地照相机拍照 case 102: if (resultCode == RESULT_OK) { //Bundle bundle = data.getExtras(); //bm = (Bitmap) bundle.get("data"); bitmap = BitmapFactory.decodeFile(Environment.getExternalStorageDirectory() + "/" + CAMERAIMAGENAME); } break; default: break; } Log.e("bitmap", String.valueOf(bitmap)); if (bitmap == null) { toast = Toast.makeText(MainActivity.this, "未选择图像", Toast.LENGTH_SHORT); toast.show(); return; } // 识别图片 并画框 /* Thread detect=new Thread(new Runnable() { @Override public void run() { } }); detect.run(); */ // 将照片剪裁 bitmap将被释放重新赋值 //int ibWidth = imageButton.getWidth(); // int ibHeight = imageButton.getHeight(); //resizeBitmap = imageButton.resizeBitmap(bitmap, ibWidth, ibHeight); //imageButton.setBitmap(resizeBitmap); //imageButton2.setBitmap(rectBitmap); } private void detect() { MainActivity.this.runOnUiThread(new Runnable() { @Override public void run() { toDetcet.initExecDetect(MainActivity.this,bitmap); // Toast.makeText(MainActivity.this, "initialize succeed", Toast.LENGTH_SHORT).show(); String show= toDetcet.startDetect(); // Toast.makeText(MainActivity.this, " succeed", Toast.LENGTH_SHORT).show(); textView.setText(show); } }); //textView.setText(toDetcet.getReturntoMain()); } } ``` 以下是activity_main.xml ``` <?xml version="1.0" encoding="utf-8"?> <LinearLayout xmlns:android="http://schemas.android.com/apk/res/android" xmlns:app="http://schemas.android.com/apk/res-auto" xmlns:tools="http://schemas.android.com/tools" android:layout_width="match_parent" android:layout_height="match_parent" android:orientation="vertical"> <TextView android:id="@+id/tv_face" android:layout_width="wrap_content" android:layout_height="wrap_content" android:layout_marginBottom="16dp" android:text="未检测到人脸" android:textColor="@color/colorAccent" app:layout_constraintBottom_toTopOf="@+id/ll1" app:layout_constraintLeft_toLeftOf="parent" app:layout_constraintRight_toRightOf="parent" /> <LinearLayout android:id="@+id/ll1" android:layout_width="wrap_content" android:layout_height="wrap_content" android:orientation="horizontal" app:layout_constraintBottom_toBottomOf="parent" app:layout_constraintLeft_toLeftOf="parent" app:layout_constraintRight_toRightOf="parent"> <com.qmuiteam.qmui.widget.roundwidget.QMUIRoundButton android:id="@+id/addPic" android:layout_width="wrap_content" android:layout_height="wrap_content" android:layout_marginBottom="5dp" android:layout_weight="1" android:onClick="onClick" android:text=" 选择图片(CV) " android:textSize="16sp" app:layout_constraintLeft_toLeftOf="parent" app:layout_constraintRight_toRightOf="parent" /> <com.qmuiteam.qmui.widget.roundwidget.QMUIRoundButton android:id="@+id/startDetect" android:layout_width="wrap_content" android:layout_height="wrap_content" android:layout_marginBottom="5dp" android:layout_weight="1" android:onClick="onClick" android:text=" 开始识别 " android:textSize="16sp" app:layout_constraintLeft_toLeftOf="parent" app:layout_constraintRight_toRightOf="parent" /> <com.qmuiteam.qmui.widget.roundwidget.QMUIRoundButton android:id="@+id/check" android:layout_width="wrap_content" android:layout_height="wrap_content" android:layout_marginBottom="5dp" android:layout_weight="1" android:onClick="onClick" android:text=" 结果 " android:textSize="16sp" app:layout_constraintLeft_toLeftOf="parent" app:layout_constraintRight_toRightOf="parent" /> <com.qmuiteam.qmui.widget.roundwidget.QMUIRoundButton android:id="@+id/back" android:layout_width="wrap_content" android:layout_height="wrap_content" android:layout_marginBottom="0dp" android:layout_weight="1" android:onClick="onClick" android:text=" 返回 " android:textSize="16sp" app:layout_constraintLeft_toLeftOf="parent" app:layout_constraintRight_toRightOf="parent" /> </LinearLayout> </LinearLayout> ``` 以下是execDetect.java ``` package com.RinGo.IMGfenlei; import android.content.Context; import android.graphics.Bitmap; import android.util.Log; import org.opencv.android.Utils; import org.opencv.core.Mat; import org.opencv.core.MatOfRect; import org.opencv.core.Rect; import org.opencv.core.Scalar; import org.opencv.imgproc.Imgproc; import org.opencv.objdetect.CascadeClassifier; import com.RinGo.IMGfenlei.R; import com.RinGo.IMGfenlei.Detector; import java.io.File; import java.io.FileOutputStream; import java.io.InputStream; public class execDetect { private Detector frontfaceDetector; private Detector smilefaceDetector; private Detector[] detectors=new Detector[10]; private Detector detector; private Bitmap bitmap; private Bitmap rectBitmap; private String returntoMain=""; private String[] detectorNames=new String[10]; private CascadeClassifier mFrontalFaceClassifier = null; //正脸 级联分类器 private CascadeClassifier mProfileFaceClassifier = null; //侧脸 级联分类器 private int smilefacenum=0; private Context mcontext; private int[] cascades=new int[10]; public void initExecDetect(Context _context,Bitmap _bitmap) { bitmap=_bitmap; mcontext=_context; cascades[0]=R.raw.haarcascade_frontalface_alt; detectors[0] = new Detector(_context,R.raw.haarcascade_frontalface_alt, 1, 0.2F, 0.2F, new Scalar(255, 0, 0, 255)); detectorNames[0]="正面人脸"; cascades[1]=R.raw.lbpcascade_frontalface; detectors[1] = new Detector(_context,R.raw.lbpcascade_frontalface, 1, 0.2F, 0.2F, new Scalar(255, 0, 0, 255)); detectorNames[1]="正面人脸2"; } public String startDetect() { // bitmapToMat Mat toMat = new Mat(); Utils.bitmapToMat(bitmap, toMat); // Mat copyMat = new Mat(); // toMat.copyTo(copyMat); // 复制 // togray Mat gray = new Mat(); MatOfRect mRect = new MatOfRect(); Imgproc.cvtColor(toMat, gray, Imgproc.COLOR_RGBA2GRAY); for (int id = 0; id < detectors.length; id++) { //detector = new Detector(mcontext,cascades[id], 3, 0.1F, 0.1F, new Scalar(255, 0, 0, 255)); try { int num = 0; mRect=new MatOfRect(); Rect[] object = detectors[id].detectObjectImage( gray, mRect); Log.e("objectLength", object.length + ""); num=object.length; /* for (Rect rect : object) { num++; } */ returntoMain =returntoMain+ String.format("检测到%1$d个" + detectorNames[id], num) + "\n"; } catch (Exception e) { e.printStackTrace(); } //textView.setText(String.format("检测到%1$d个人脸", facenum)); //Utils.matToBitmap(toMat, bitmap); } return returntoMain; } public String getReturntoMain() { return returntoMain; } } ``` 以下是Detector.java,定义了我的级联分类器的设置 ``` package com.RinGo.IMGfenlei; import android.content.Context; import org.opencv.core.Mat; import org.opencv.core.MatOfRect; import org.opencv.core.Rect; import org.opencv.core.Scalar; import org.opencv.core.Size; import org.opencv.objdetect.CascadeClassifier; import org.opencv.objdetect.Objdetect; import java.io.File; import java.io.FileOutputStream; import java.io.IOException; import java.io.InputStream; /** * Created by think-hxr on 17-10-12. */ public class Detector { private CascadeClassifier mCascadeClassifier; private int mMinNeighbors; private float mRelativeObjectWidth; private float mRelativeObjectHeight; private Scalar mRectColor; /** * 构造方法 * * @param context 上下文 * @param id 级联分类器ID * @param minNeighbors 连续几帧确认目标 * @param relativeObjectWidth 最小宽度屏占比 * @param relativeObjectHeight 最小高度屏占比 * @param rectColor 画笔颜色 */ public Detector(Context context, int id, int minNeighbors, float relativeObjectWidth, float relativeObjectHeight, Scalar rectColor) { context = context.getApplicationContext(); mCascadeClassifier = createDetector(context, id); mMinNeighbors = minNeighbors; mRelativeObjectWidth = relativeObjectWidth; mRelativeObjectHeight = relativeObjectHeight; mRectColor = rectColor; } /** * 创建检测器 * * @param context 上下文 * @param id 级联分类器ID * @return 检测器 */ private CascadeClassifier createDetector(Context context, int id) { CascadeClassifier javaDetector; InputStream is = null; FileOutputStream os = null; try { is = context.getResources().openRawResource(id); File cascadeDir = context.getDir("cascade", Context.MODE_PRIVATE); File cascadeFile = new File(cascadeDir, id + ".xml"); os = new FileOutputStream(cascadeFile); byte[] buffer = new byte[4096]; int bytesRead; while ((bytesRead = is.read(buffer)) != -1) { os.write(buffer, 0, bytesRead); } javaDetector = new CascadeClassifier(cascadeFile.getAbsolutePath()); //javaDetector=new CascadeClassifier(); // javaDetector.load(cascadeFile.getAbsolutePath()); if (javaDetector.empty()) { javaDetector = null; } boolean delete = cascadeDir.delete(); return javaDetector; } catch (IOException e) { e.printStackTrace(); return null; } finally { try { if (null != is) { is.close(); } if (null != os) { os.close(); } } catch (IOException e) { e.printStackTrace(); } } } /** * 目标检测 视频 * * @param gray 灰度图像 * @param object 识别结果的容器 * @return 检测到的目标位置集合 */ public Rect[] detectObject(Mat gray, MatOfRect object) { // 使用Java人脸检测 mCascadeClassifier.detectMultiScale( gray, // 要检查的灰度图像 object, // 检测到的人脸 1.1, // 表示在前后两次相继的扫描中,搜索窗口的比例系数。默认为1.1即每次搜索窗口依次扩大10%; mMinNeighbors, // 默认是3 控制误检测,表示默认几次重叠检测到人脸,才认为人脸存在 Objdetect.CASCADE_SCALE_IMAGE, getSize(gray, mRelativeObjectWidth, mRelativeObjectHeight), // 目标最小可能的大小 gray.size()); // 目标最大可能的大小 return object.toArray(); } /** * 目标检测 图片 * * @param gray 灰度图像 * @param object 识别结果的容器 * @return */ public Rect[] detectObjectImage(Mat gray, MatOfRect object) { mCascadeClassifier.detectMultiScale(gray,object); return object.toArray(); } /** * 根据屏占比获取大小 * * @param gray gray * @param relativeObjectWidth 最小宽度屏占比 * @param relativeObjectHeight 最小高度屏占比 * @return 大小 */ private Size getSize(Mat gray, float relativeObjectWidth, float relativeObjectHeight) { Size size = gray.size(); int cameraWidth = gray.cols(); int cameraHeight = gray.rows(); int width = Math.round(cameraWidth * relativeObjectWidth); int height = Math.round(cameraHeight * relativeObjectHeight); size.width = 0 >= width ? 0 : (cameraWidth < width ? cameraWidth : width); // width [0, cameraWidth] size.height = 0 >= height ? 0 : (cameraHeight < height ? cameraHeight : height); // height [0, cameraHeight] return size; } /** * 获取画笔颜色 * * @return 颜色 */ public Scalar getRectColor() { return mRectColor; } } ```
MFC+Opencv做实时视频移动目标检测
这段时间在用visual studio2013-MFC+opencv2.4.8,结合USB摄像头采集视频信号,做实时的移动目标检测,不知道各位大神有什么好的建议?小弟求助,急...
新人 人脸识别 python opencv.深度学习 有一些概念性问题 求助一下
刚开始接触学习 人脸识别 网上教程有点多和乱。。看了很多东西。 我总结为下面3个问题。 1.pyyhon的cnn卷积神经网络可以直接做人脸识别? 2.python for opencv 可以直接做出人脸识别? 3 python opencv+深度学习cnn 来做出人脸识别。? 根据百度词条 opencv是一个机器视觉库 看了很多文章他里面应该是有传统的识别haar和llbp特征识别出人脸的 而cnn神经网络算法是和opencv中传统算法所不一样的 是一个深度学习的强化 更好的做人脸识别。 我对上述内容怎么说就是比较懵逼啦。。希望有朋友能帮我梳理出几个学习的框架。我好去学习 另外我现在是想在windows上学习。后期想加在树莓派上的linux系统。 谢谢大家!刚开始用csdn....学生党没有钱了 不好意思各位。。
求助,opencv车辆识别报错
错误信息 ``` java.lang.NullPointerException: Attempt to invoke virtual method 'void org.opencv.objdetect.CascadeClassifier.detectMultiScale(org.opencv.core.Mat, org.opencv.core.MatOfRect, double, int, int, org.opencv.core.Size, org.opencv.core.Size)' on a null object reference at com.example.myapplication.MainActivity.procSrc2Gray(MainActivity.java:139) at com.example.myapplication.MainActivity$ProcessClickListener.onClick(MainActivity.java:188) at android.view.View.performClick(View.java:4780) at android.view.View$PerformClick.run(View.java:19866) at android.os.Handler.handleCallback(Handler.java:739) at android.os.Handler.dispatchMessage(Handler.java:95) at android.os.Looper.loop(Looper.java:135) at android.app.ActivityThread.main(ActivityThread.java:5254) at java.lang.reflect.Method.invoke(Native Method) at java.lang.reflect.Method.invoke(Method.java:372) at com.android.internal.os.ZygoteInit$MethodAndArgsCaller.run(ZygoteInit.java:903) at com.android.internal.os.ZygoteInit.main(ZygoteInit.java:698) ``` 说是空指针但是找不到问题在哪里。。 求好心人帮帮我。。 ------------ 前面我有给分类器赋值 ``` public void initializeOpenCVDependencies() { try { // Copy the resource into a temp file so OpenCV can load it InputStream is = getResources().openRawResource(R.raw.cars); File cascadeDir = getDir("cars", Context.MODE_PRIVATE); File mCascadeFile = new File(cascadeDir.getAbsoluteFile(), "cars.xml"); FileOutputStream os = new FileOutputStream(mCascadeFile); byte[] buffer = new byte[4096]; int bytesRead=0; while ((bytesRead = is.read(buffer)) != -1) { os.write(buffer, 0, bytesRead); } is.close(); os.close(); // Load the cascade classifier detectface = new CascadeClassifier(mCascadeFile.getAbsolutePath()); } catch (Exception e) { Log.e("OpenCVActivity", "Error loading cascade", e); } } ```请问是不是赋值语句有问题?
我正在学习SIFT图像匹配算法,求助!
RT,我下载了论坛的SIFT_match+bdf+kd的源代码,跳出了大量的错误,比如无法打开源文件:“assert.h”之类的错误。恳求大家帮我解决,或者说有更好的代码,请发我一份。PS(我的环境:VS2017+OPENCV2.4.4) ![图片说明](https://img-ask.csdn.net/upload/20 1704/02/1491106414_304360.png)
小白求助!!!关于利用Zbar进行二维码扫描程序的问题
构建openCV3.4.0+zbar 64位+VS2015的环境 (zbar貌似只支持32位系统因此我又自己找了64位的库) 这个程序就是利用调用摄像头扫描二维码,然后通过数学计算测量摄像头与二维码的实时距离 是按照原博主的这篇文章https://zhou-yuxin.github.io/articles/2017/%E5%9F%BA%E4%BA%8E%E4%BA%8C%E7%BB%B4%E7%A0%81%E7%9A%84%E5%AE%A4%E5%86%85%E5%AE%9A%E4%BD%8D%E6%8A%80%E6%9C%AF%EF%BC%88%E4%BA%8C%EF%BC%89%E2%80%94%E2%80%94%E5%AE%9E%E7%8E%B0/index.html参考的 又请了师兄将其中openCV老版本的语句换成了我这个版本的 本来应该按照原博的示例是这样的 ![图片说明](https://img-ask.csdn.net/upload/201912/11/1576057370_636530.jpg) 但是我运行过后变成了这样 ![图片说明](https://img-ask.csdn.net/upload/201912/11/1576057402_728485.png) 打印出来的三个变量不对 而且都是乱码 我上网搜索也没有发现相关资料和问题 真的很着急 求各位大神指教 是不是我的ZBAR安装的有问题? 真的快急哭了 求救!!! 代码如下 QRLocation.h #ifndef QRLOCATION_H #define QRLOCATION_H /* 二维码的内容必须符合格式: QRLocation,<qrSize> 其中<qrSize>是一个实数,表示二维码边长 */ #include <opencv2/opencv.hpp> #include <opencv2/videoio.hpp> #include <zbar.h> #include <opencv/highgui.h> //二维码倾斜阈值 #define QRLOCATION_INCLINATION_THRESHOLD 0.1 //调试窗口标题 #define QRLOCATION_DEBUGUI_TITLE "debugui" //二维码位姿 typedef struct QRPose { //二维码中心所在铅垂线与O点构成的平面和Z轴形成的夹角 double a; //二维码所在平面与X轴构成的夹角 double b; //二维码中心到XOY平面的距离 double z; } QRPose_t; //二维码定位算法 class QRLocation { public: //初始化,第一个参数为摄像头编号,第二个参数为摄像头上下视角,第三个参数为是否开启调试窗口 bool init(int webcamIndex, double hViewAngle, bool debugUI); //获取二维码位姿 bool getQRPose(QRPose_t* qrPose); //销毁 bool destroy(); private: //摄像头 cv::VideoCapture capture; //摄像头上下视角 double hViewAngle; //是否开启调试窗口 bool debugUI; //灰度图 cv::Mat grayFrame; //图片扫描器 zbar::ImageScanner scanner; private: //计算位姿(格式合法性判断) bool getQRPose(zbar::Image::SymbolIterator symbol, QRPose_t* qrPose); //计算位姿(算法) bool getQRPose(zbar::Image::SymbolIterator symbol, double qrSize, QRPose_t* qrPose); }; #endif QRLocation.cpp #include <iostream> #include <opencv/highgui.h> #include "QRLocation.h" #include <string.h> #include <stdio.h> using namespace std; using namespace zbar; bool QRLocation::init(int webcamIndex, double hViewAngle, bool debugUI) { //打开摄像头 capture.open(webcamIndex); //摄像头不存在 if (!capture.isOpened()) { printf("camera open error \n"); return false; } //printf("point 2 \n"); this->hViewAngle = hViewAngle; this->debugUI = debugUI; //grayFrame=0; //配置zbar图片扫描器 scanner.set_config(zbar::ZBAR_NONE, zbar::ZBAR_CFG_ENABLE, 1); //printf("point 3 \n"); //如果开启调试,则创建窗口,名称为“debugui”,自动调整大小 if (debugUI) { cv::namedWindow(QRLOCATION_DEBUGUI_TITLE, CV_WINDOW_AUTOSIZE); } //printf("point 4 \n"); return 1; } bool QRLocation::getQRPose(QRPose_t* qrPose) { //从摄像头中抓取一帧 cv::Mat frame; capture.read(frame);; //图像为空 if (frame.empty()) { printf("read frame is empty!\n"); return false; } //printf("point 6 \n"); //如果灰度图没有创建,就创建一个和原图一样大小的灰度图(8位色深,单通道) //if (grayFrame.empty()) { grayFrame = cv::Mat(frame.size(), IPL_DEPTH_8U, 1); //} //原图转灰度图 //cv::cvtColor(frame, grayFrame, cv::COLOR_BGR2GRAY); cvtColor(frame, grayFrame, CV_RGB2GRAY); //printf("point 9 \n"); //如果开启调试,则显示灰度图 if (debugUI) { cv::imshow(QRLOCATION_DEBUGUI_TITLE, grayFrame); char c = cv::waitKey(30); } //printf("point 8 \n"); //创建zbar图像 uchar* data = frame.data; void *new_data = static_cast<void *>(data); Image image(frame.size().width, frame.size().height, "Y800", new_data, frame.size().width*frame.size().height); //printf("point 7 \n"); //扫描图像,识别二维码,获取个数 int symbolCount = scanner.scan(image); //获取第一个二维码 Image::SymbolIterator symbol = image.symbol_begin(); //遍历所有识别出来的二维码 while (symbolCount--) { //能够识别 if (getQRPose(symbol, qrPose)) return true; //下一个二维码 ++symbol; } return false; } bool QRLocation::getQRPose(Image::SymbolIterator symbol, QRPose_t* qrPose) { //首先得是一个二维码 if (symbol->get_type_name() != "QR-Code") printf("this is shit"); //获取内容 char data[128]; strncpy_s(data, symbol->get_data().c_str(), sizeof(data) - 1); data[sizeof(data) - 1] = 0; //内容得是以“QRLocation,”开头 if (strncmp(data, "QRLocation,", 11) != 0) return false; //获取二维码边长 double qrSize = 0; sscanf_s(data + 11, "%lf", &qrSize); if (qrSize == 0) return false; //计算位姿 return getQRPose(symbol, qrSize, qrPose); } bool QRLocation::getQRPose(Image::SymbolIterator symbol, double qrSize, QRPose_t* qrPose) { //获得四个点的坐标 double x0 = symbol->get_location_x(0); double y0 = symbol->get_location_y(0); double x1 = symbol->get_location_x(1); double y1 = symbol->get_location_y(1); double x2 = symbol->get_location_x(2); double y2 = symbol->get_location_y(2); double x3 = symbol->get_location_x(3); double y3 = symbol->get_location_y(3); //左边沿纵向差 double leftH = y1 - y0; //右边沿纵向差 double rightH = y2 - y3; //必须保证0点高于1点,3点高于2点 if (leftH<0 || rightH<0) return false; //左边沿横向差 double leftW = abs(x0 - x1); //右边沿横向差 double rightW = abs(x2 - x3); //不能太倾斜 if (max(leftW / leftH, rightW / rightH)>QRLOCATION_INCLINATION_THRESHOLD) return false; //上下视角一半的正切值,因为一直要用,所以先计算出来 double tanHalfView = tan(hViewAngle / 2); double leftLen = sqrt(leftH*leftH + leftW*leftW); double rightLen = sqrt(rightH*rightH + rightW*rightW); //左边沿的深度 double leftZ = grayFrame.size().height*qrSize / tanHalfView / 2 / leftLen; //右边沿的深度 double rightZ = grayFrame.size().height*qrSize / tanHalfView / 2 / rightLen; //得到中心点的深度 double z = (leftZ + rightZ) / 2; //计算b的正弦值 double sinB = (leftZ - rightZ) / qrSize; if (sinB>1) return false; //得到b double b = asin(sinB); //两条对角线的系数和偏移 double k1 = (y2 - y0) / (x2 - x0); double b1 = (x2*y0 - x0*y2) / (x2 - x0); double k2 = (y3 - y1) / (x3 - x1); double b2 = (x3*y1 - x1*y3) / (x3 - x1); //两条对角线交点的X坐标 double crossX = -(b1 - b2) / (k1 - k2); //计算a的正切值 double tanA = tanHalfView*(2 * crossX - grayFrame.size().width) / grayFrame.size().width; //得到a double a = atan(tanA); qrPose->a = a; qrPose->b = b; qrPose->z = z; return true; } //bool QRLocation::destroy() //{ //释放灰度图 //cvReleaseImage(&grayFrame); //销毁窗口 //cvDestroyWindow(QRLOCATION_DEBUGUI_TITLE); //释放内存 //cvReleaseCapture(&capture); //} QRLocationTest.cpp #include "QRLocation.h" #include <stdio.h> int main(int argc, char* argv[]) { //printf("point 1 \n"); QRLocation qrLoc; if (!qrLoc.init(0, 0.60, true)) { return 1; } //printf("point 5 \n"); QRPose_t pose; while (true) { if (qrLoc.getQRPose(&pose)) { double aInDegree = pose.a * 180 / 3.1415; double bInDegree = pose.b * 180 / 3.1415; printf("a=%.2lf,b=%.2lf,z=%.2lf\n", aInDegree, bInDegree, pose.z); } } }
Ubuntu下使用opencv打开摄像头出现“已放弃(核心已转储)”
在Ubuntu 16.04 系统下使用opencv-3.2.0打开摄像头,运行可执行程序后出现如下错误: OpenCV Error: Assertion failed (total() == 0 || data != NULL) in Mat, file /home/thunder/code/opencv-3.2.0/modules/core/include/opencv2/core/mat.inl.hpp, line 431 terminate called after throwing an instance of 'cv::Exception' what(): /home/thunder/code/opencv-3.2.0/modules/core/include/opencv2/core/mat.inl.hpp:431: error: (-215) total() == 0 || data != NULL in function Mat 已放弃 (核心已转储) 求助各位大神这是什么地方的问题,不胜感激! ![图片说明](https://img-ask.csdn.net/upload/201711/16/1510829093_261624.png)
python3.6用opencv修复图片
如图,图片左侧边缘有一个黑色的块,想用opencv的inpaint方法修复,但是这个方法必须要提供一个图像的掩码,而且大小要必须一样,另外一点这个图片黑点的位置是不确定的,小弟刚接触python不久,求助一下有没人做过类似的或者提供一些别的思路,感激不尽~ ![图片说明](https://img-ask.csdn.net/upload/201708/14/1502726387_172811.jpg) ![图片说明](https://img-ask.csdn.net/upload/201708/15/1502726551_899870.jpg) 代码如下: ``` import numpy as np import cv2 img = cv2.imread('1.png') #原图 mask = cv2.imread('r.png',0) #掩码 dst = cv2.inpaint(img,mask,3,cv2.INPAINT_TELEA) cv2.imshow('dst',dst) cv2.waitKey(0) cv2.destroyAllWindows() ```
opencv捕获USB摄像头,出现问题
求助各位大神,刚开始接触openCV,目前使用VS2013,openCV2.4.8。用openCV捕获USB摄像头,程序编译没报错,就是弹出一个窗口然后立马消失,命令行窗口提示摄像头打开失败,不知道什么原因,网上的帖子各种说法,终究没有解决 ```#include "stdafx.h" #include "cv.h" #include "highgui.h" #include "stdlib.h" #include "windows.h" #include "iostream" using namespace std; using namespace cv; int _tmain(int argc, _TCHAR* argv[]) { cvNamedWindow("camera",CV_WINDOW_AUTOSIZE); CvCapture* capture = cvCreateCameraCapture(-1); if (!capture) { cout << "camera failed" << endl; } IplImage* frame; Sleep(2000); while (1) { frame = cvQueryFrame(capture); if (!frame) { break; } cvShowImage("camera", frame); char c = cvWaitKey(33); if (c == 27) { break; } } cvReleaseCapture(&capture); cvDestroyWindow("camera"); return 0; } ```
openCV_python自带的ANN进行手写字体识别,报错。求助
![图片说明](https://img-ask.csdn.net/upload/202001/31/1580479207_695592.png)![图片说明](https://img-ask.csdn.net/upload/202001/31/1580479217_497206.png) 我用python3.6按照《OpenCV3计算机视觉》书上代码进行手写字识别,识别率很低,运行时还报了错:OpenCV(3.4.1) Error: Assertion failed ((type == 5 || type == 6) && inputs.cols == layer_sizes[0]) in cv::ml::ANN_MLPImpl::predict, file C:\projects\opencv-python\opencv\modules\ml\src\ann_mlp.cpp, line 411 ``` 具体代码如下:求大佬指点下 import cv2 import numpy as np import digits_ann as ANN def inside(r1, r2): x1, y1, w1, h1 = r1 x2, y2, w2, h2 = r2 if (x1 > x2) and (y1 > y2) and (x1 + w1 < x2 + w2) and (y1 + h1 < y2 + h2): return True else: return False def wrap_digit(rect): x, y, w, h = rect padding = 5 hcenter = x + w / 2 vcenter = y + h / 2 if (h > w): w = h x = hcenter - (w / 2) else: h = w y = vcenter - (h / 2) return (int(x - padding), int(y - padding), int(w + padding), int(h + padding)) ''' 注意:首次测试时,建议将使用完整的训练数据集,且进行多次迭代,直到收敛 如:ann, test_data = ANN.train(ANN.create_ANN(100), 50000, 30) ''' ann, test_data = ANN.train(ANN.create_ANN(10), 50000, 1) # 调用所需识别的图片,并处理 path = "C:\\Users\\64601\\PycharmProjects\Ann\\images\\numbers.jpg" img = cv2.imread(path, cv2.IMREAD_UNCHANGED) bw = cv2.cvtColor(img, cv2.COLOR_BGR2GRAY) bw = cv2.GaussianBlur(bw, (7, 7), 0) ret, thbw = cv2.threshold(bw, 127, 255, cv2.THRESH_BINARY_INV) thbw = cv2.erode(thbw, np.ones((2, 2), np.uint8), iterations=2) image, cntrs, hier = cv2.findContours(thbw.copy(), cv2.RETR_TREE, cv2.CHAIN_APPROX_SIMPLE) rectangles = [] for c in cntrs: r = x, y, w, h = cv2.boundingRect(c) a = cv2.contourArea(c) b = (img.shape[0] - 3) * (img.shape[1] - 3) is_inside = False for q in rectangles: if inside(r, q): is_inside = True break if not is_inside: if not a == b: rectangles.append(r) for r in rectangles: x, y, w, h = wrap_digit(r) cv2.rectangle(img, (x, y), (x + w, y + h), (0, 255, 0), 2) roi = thbw[y:y + h, x:x + w] try: digit_class = ANN.predict(ann, roi)[0] except: print("except") continue cv2.putText(img, "%d" % digit_class, (x, y - 1), cv2.FONT_HERSHEY_SIMPLEX, 1, (0, 255, 0)) cv2.imshow("thbw", thbw) cv2.imshow("contours", img) cv2.waitKey() cv2.destroyAllWindows() ####### import cv2 import pickle import numpy as np import gzip """OpenCV ANN Handwritten digit recognition example Wraps OpenCV's own ANN by automating the loading of data and supplying default paramters, such as 20 hidden layers, 10000 samples and 1 training epoch. The load data code is taken from http://neuralnetworksanddeeplearning.com/chap1.html by Michael Nielsen """ def vectorized_result(j): e = np.zeros((10, 1)) e[j] = 1.0 return e def load_data(): with gzip.open('C:\\Users\\64601\\PycharmProjects\\Ann\\mnist.pkl.gz') as fp: # 注意版本不同,需要添加传入第二个参数encoding='bytes',否则出现编码错误 training_data, valid_data, test_data = pickle.load(fp, encoding='bytes') fp.close() return (training_data, valid_data, test_data) def wrap_data(): # tr_d数组长度为50000,va_d数组长度为10000,te_d数组长度为10000 tr_d, va_d, te_d = load_data() # 训练数据集 training_inputs = [np.reshape(x, (784, 1)) for x in tr_d[0]] training_results = [vectorized_result(y) for y in tr_d[1]] training_data = list(zip(training_inputs, training_results)) # 校验数据集 validation_inputs = [np.reshape(x, (784, 1)) for x in va_d[0]] validation_data = list(zip(validation_inputs, va_d[1])) # 测试数据集 test_inputs = [np.reshape(x, (784, 1)) for x in te_d[0]] test_data = list(zip(test_inputs, te_d[1])) return (training_data, validation_data, test_data) def create_ANN(hidden=20): ann = cv2.ml.ANN_MLP_create() # 建立模型 ann.setTrainMethod(cv2.ml.ANN_MLP_RPROP | cv2.ml.ANN_MLP_UPDATE_WEIGHTS) # 设置训练方式为反向传播 ann.setActivationFunction( cv2.ml.ANN_MLP_SIGMOID_SYM) # 设置激活函数为SIGMOID,还有cv2.ml.ANN_MLP_IDENTITY,cv2.ml.ANNMLP_GAUSSIAN ann.setLayerSizes(np.array([784, hidden, 10])) # 设置层数,输入784层,输出层10 ann.setTermCriteria((cv2.TERM_CRITERIA_EPS | cv2.TERM_CRITERIA_COUNT, 100, 0.1)) # 设置终止条件 return ann def train(ann, samples=10000, epochs=1): # tr:训练数据集; val:校验数据集; test:测试数据集; tr, val, test = wrap_data() for x in range(epochs): counter = 0 for img in tr: if (counter > samples): break if (counter % 1000 == 0): print("Epoch %d: Trained %d/%d" % (x, counter, samples)) counter += 1 data, digit = img ann.train(np.array([data.ravel()], dtype=np.float32), cv2.ml.ROW_SAMPLE, np.array([digit.ravel()], dtype=np.float32)) print("Epoch %d complete" % x) return ann, test def predict(ann, sample): resized = sample.copy() rows, cols = resized.shape if rows != 28 and cols != 28 and rows * cols > 0: resized = cv2.resize(resized, (28, 28), interpolation=cv2.INTER_CUBIC) return ann.predict(np.array([resized.ravel()], dtype=np.float32)) ```
opencv3新手编程求助,跪求大神解答
代码如下: #include<iostream> #include<opencv2/core/core.hpp> #include<opencv2/highgui/highgui.hpp> using namespace std; using namespace cv; bool MultiChannelBlending(); int main(){ if (MultiChannelBlending()){ cout << endl << "尼玛真费劲!"; } waitKey(); return 0; } bool MultiChannelBlending(){ Mat srcimage; Mat logoimage; vector<Mat> channels; Mat imageBlueChannel; srcimage = imread("ray.jpg"); logoimage = imread("灰度图.jpg",0); if (!srcimage.data){ printf("srcimage读取错误"); return false; }; if (!logoimage.data){ printf("logo读取错误"); return false; }; split(srcimage, channels); imageBlueChannel = channels.at(0); addWeighted(imageBlueChannel(Rect(200, 100, logoimage.cols, logoimage.rows)), 1.0, logoimage, 0.5, 0, imageBlueChannel(Rect(200, 100, logoimage.cols, logoimage.rows))); merge(srcimage, channels); namedWindow("原画+logo蓝色通道"); imshow("原画+logo蓝色通道", srcimage); return true; } 小弟在练习opencv,但是运行后会出现这样的问题:0x1011B40E (opencv_world300.dll) (多通道图像混合.exe 中)处有未经处理的异常: 0xC0000005: 写入位置 0x0020002C 时发生访问冲突。 百思不得其解,求助大神!
求助OpenCV人脸识别相关函数问题?
1.OpenCV关于特征脸方法中, 2.用Ptr<BasicFaceRecognizer> model = EigenFaceRecognizer::create();创建模型后, 定义完参数类型后,model->predict(testSample,predictedLabel,confidence);报错,显示没有与参数列表匹配的实例,这是为什么啊,如果用错了,那该用什么得到人脸识别结果的置信率呢?
急急急 java 实现把bmp转换一个dcm文件,但是生成dcm文件却无法打开,求助.
代码如下 ``` import org.dcm4che3.data.Attributes; import org.dcm4che3.data.Tag; import org.dcm4che3.data.VR; import org.dcm4che3.io.DicomEncodingOptions; import org.dcm4che3.io.DicomOutputStream; import java.io.BufferedInputStream; import java.io.DataInputStream; import java.io.File; import java.io.FileInputStream; public class TwoBmp2Dcm { private static byte[] buffer = new byte[54]; private static byte[] buff = new byte[8192]; private static int imageSize; private static DicomEncodingOptions encOpts = DicomEncodingOptions.DEFAULT; public static void main(String[] args) throws Exception { File file=new File("/Users/zhangdechang/Desktop/txt/timg.bmp"); File outdcm=new File("/Users/zhangdechang/Desktop/txt/998uuuu.dcm"); DataInputStream dis=new DataInputStream(new BufferedInputStream(new FileInputStream(file))); DicomOutputStream out =new DicomOutputStream(outdcm); Attributes attrs=new Attributes(); Attributes data=new Attributes(); attrs=addMetaInformation(attrs); data=addData(data); data=readHeader(data, dis); out.writeDataset(attrs, data); out.setEncodingOptions(encOpts); out.writeHeader(Tag.PixelData, VR.OW, imageSize*2); int r; while ((r = dis.read(buff)) > 0) { out.write(buff, 0, r); } out.close(); dis.close(); } public static Attributes readHeader(Attributes attrs ,DataInputStream dis) throws Exception{ dis.read(buffer,0,54); if((buffer[0]&0xff)!=0x42&&(buffer[1]&0xff)!=0x4d){ throw new Exception("Missing BM segment in Bmp stream"); } int imageRows=byteToInt(buffer,21); int imageColumns=byteToInt(buffer,25); imageSize=byteToInt(buffer,5)-54; int biBitCount=byteTo2Int(buffer,29); attrs.setInt (Tag.SamplesPerPixel, VR.US,3); attrs.setInt(Tag.Rows, VR.US, imageColumns<0?-imageColumns:imageColumns); attrs.setInt(Tag.Columns, VR.US, imageRows); attrs.setInt(Tag.BitsAllocated, VR.US,biBitCount );//biBitCount attrs.setInt(Tag.BitsStored, VR.US,32); attrs.setInt(Tag.HighBit, VR.US, 32); attrs.setInt(Tag.PixelRepresentation, VR.US, 0); attrs.setString(Tag.PhotometricInterpretation,VR.CS, "MONOCHROME2"); //PALETTE_COLOR MONOCHROME2 attrs.setString(Tag.RescaleSlope, VR.DS, "1.0"); attrs.setString(Tag.RescaleIntercept, VR.DS, "0.0"); attrs.setString(Tag.PixelSpacing,VR.DS, "0.25/0.25"); attrs.setInt(Tag.NumberOfFrames, VR.IS, 1); return attrs; } public static Attributes addData(Attributes attrs){ attrs.setString(Tag.SpecificCharacterSet, VR.CS, "GB18030"); attrs.setString(Tag.ImageType, VR.CS, "ORIGINAL/PRIMARY/AXIAL"); attrs.setString(Tag.InstanceCreationDate, VR.DA, "20130013"); attrs.setString(Tag.InstanceCreationTime, VR.TM, "175827"); attrs.setString(Tag.SOPClassUID, VR.UI, "1.2.840.10008.5.1.4.1.1.2"); attrs.setString(Tag.SOPInstanceUID, VR.UI, "1.3.6.1.4.1.30071.6.22744165.4288391077912169.1.3"); attrs.setString(Tag.StudyDate, VR.DA, "20130803"); attrs.setString(Tag.AcquisitionDateTime, VR.DT, "20130803000000"); attrs.setString(Tag.StudyTime, VR.TM, "175532"); attrs.setString(Tag.AccessionNumber, VR.SH, "0"); attrs.setString(Tag.Modality, VR.CS, "DX"); attrs.setString(Tag.Manufacturer, VR.LO, "LargeV"); attrs.setString(Tag.StudyDescription, VR.LO, "融合扫描图像"); attrs.setString(Tag.SeriesDescription, VR.LO, "融合扫描图像"); attrs.setString(Tag.ManufacturerModelName, VR.LO, "HighRes3D"); attrs.setString(Tag.PatientName, VR.PN, "mmmm"); attrs.setString(Tag.PatientBirthDate,VR.DA,"19920720"); attrs.setString(Tag.PatientSex, VR.CS, "F"); return attrs; } public static Attributes addMetaInformation( Attributes attrs){ attrs.setString(Tag.FileMetaInformationVersion, VR.OB, ""); attrs.setString(Tag.MediaStorageSOPClassUID, VR.UI, "1.2.840.10008.5.1.4.1.1.2"); attrs.setString(Tag.MediaStorageSOPInstanceUID, VR.UI, "1.3.6.1.4.1.30071.6.22744165.4288391077912169.1.18"); attrs.setString(Tag.TransferSyntaxUID, VR.UI, "1.2.840.10008.1.2.1"); attrs.setString(Tag.ImplementationVersionName, VR.SH, "SmartVDicom1.0"); attrs.setString(Tag.ImplementationClassUID, VR.UI, "1.3.6.1.4.1.30071.6"); attrs.setString(Tag.SourceApplicationEntityTitle, VR.AE, ""); return attrs; } public static int byteToInt(byte[] bi,int end){ int a=(((int)bi[end]&0xff)<<24) ; int b=(((int)bi[end-1]&0xff)<<16) ; int c=(((int)bi[end-2]&0xff)<<8) ; int d=(int)bi[end-3]&0xff; return a+b+c+d; } public static int byteTo2Int(byte[] bi,int end){ int c=(((int)bi[end]&0xff)<<8) ; int d=(int)bi[end-1]&0xff; return c+d; } } ``` 生成的dcm文件打开报错,无法打开。 ![图片说明](https://img-ask.csdn.net/upload/201912/17/1576562077_220062.jpeg) 需要依赖的jar ``` <dependency> <groupId>com.sun.media</groupId> <artifactId>clibwrapper_jiio</artifactId> <version>1.2-pre-dr-b04</version> </dependency> <dependency> <groupId>commons-cli</groupId> <artifactId>commons-cli</artifactId> <version>1.2</version> </dependency> <dependency> <groupId>org.dcm4che</groupId> <artifactId>dcm4che-audit</artifactId> <version>3.3.7</version> </dependency> <dependency> <groupId>org.dcm4che</groupId> <artifactId>dcm4che-conf-api</artifactId> <version>3.3.7</version> </dependency> <dependency> <groupId>org.dcm4che</groupId> <artifactId>dcm4che-conf-core</artifactId> <version>3.3.7</version> </dependency> <dependency> <groupId>org.dcm4che</groupId> <artifactId>dcm4che-conf-core-api</artifactId> <version>3.3.7</version> </dependency> <dependency> <groupId>org.dcm4che</groupId> <artifactId>dcm4che-conf-dicom</artifactId> <version>3.3.7</version> </dependency> <dependency> <groupId>org.dcm4che</groupId> <artifactId>dcm4che-core</artifactId> <version>5.17.0</version> </dependency> <dependency> <groupId>org.dcm4che</groupId> <artifactId>dcm4che-emf</artifactId> <version>3.3.7</version> </dependency> <dependency> <groupId>org.dcm4che</groupId> <artifactId>dcm4che-filecache</artifactId> <version>3.3.7</version> </dependency> <dependency> <groupId>org.dcm4che</groupId> <artifactId>dcm4che-hl7</artifactId> <version>3.3.7</version> </dependency> <dependency> <groupId>org.dcm4che</groupId> <artifactId>dcm4che-image</artifactId> <version>5.17.0</version> </dependency> <dependency> <groupId>org.dcm4che</groupId> <artifactId>dcm4che-json</artifactId> <version>3.3.7</version> </dependency> <!-- https://mvnrepository.com/artifact/org.dcm4che/dcm4che-mime --> <dependency> <groupId>org.dcm4che</groupId> <artifactId>dcm4che-mime</artifactId> <version>3.3.7</version> </dependency> <dependency> <groupId>org.dcm4che</groupId> <artifactId>dcm4che-net</artifactId> <version>3.3.7</version> </dependency> <!-- https://mvnrepository.com/artifact/org.dcm4che/dcm4che-net-audit --> <dependency> <groupId>org.dcm4che</groupId> <artifactId>dcm4che-net-audit</artifactId> <version>3.3.7</version> </dependency> <dependency> <groupId>org.dcm4che</groupId> <artifactId>dcm4che-net-hl7</artifactId> <version>3.3.7</version> </dependency> <!-- https://mvnrepository.com/artifact/org.dcm4che/dcm4che-soundex --> <dependency> <groupId>org.dcm4che</groupId> <artifactId>dcm4che-soundex</artifactId> <version>3.3.7</version> </dependency> <dependency> <groupId>org.dcm4che.tool</groupId> <artifactId>dcm4che-tool-dcm2dcm</artifactId> <version>3.3.7</version> </dependency> <!-- https://mvnrepository.com/artifact/org.dcm4che.tool/dcm4che-tool-dcm2jpg --> <dependency> <groupId>org.dcm4che.tool</groupId> <artifactId>dcm4che-tool-dcm2jpg</artifactId> <version>3.3.7</version> </dependency> <!-- https://mvnrepository.com/artifact/org.dcm4che.tool/dcm4che-tool-dcm2json --> <dependency> <groupId>org.dcm4che.tool</groupId> <artifactId>dcm4che-tool-dcm2json</artifactId> <version>3.3.7</version> </dependency> <dependency> <groupId>org.dcm4che.tool</groupId> <artifactId>dcm4che-tool-dcm2xml</artifactId> <version>3.3.7</version> </dependency> <!-- https://mvnrepository.com/artifact/org.dcm4che.tool/dcm4che-tool-dcmdict --> <dependency> <groupId>org.dcm4che.tool</groupId> <artifactId>dcm4che-tool-dcmdict</artifactId> <version>3.3.7</version> </dependency> <!-- https://mvnrepository.com/artifact/org.dcm4che.tool/dcm4che-tool-dcmdir --> <dependency> <groupId>org.dcm4che.tool</groupId> <artifactId>dcm4che-tool-dcmdir</artifactId> <version>3.3.7</version> </dependency> <dependency> <groupId>org.dcm4che.tool</groupId> <artifactId>dcm4che-tool-dcmdump</artifactId> <version>3.3.7</version> </dependency> <!-- https://mvnrepository.com/artifact/org.dcm4che.tool/dcm4che-tool-dcmgen --> <dependency> <groupId>org.dcm4che.tool</groupId> <artifactId>dcm4che-tool-dcmgen</artifactId> <version>3.3.7</version> </dependency> <!-- https://mvnrepository.com/artifact/org.dcm4che.tool/dcm4che-tool-dcmqrscp --> <dependency> <groupId>org.dcm4che.tool</groupId> <artifactId>dcm4che-tool-dcmqrscp</artifactId> <version>3.3.7</version> </dependency> <dependency> <groupId>org.dcm4che.tool</groupId> <artifactId>dcm4che-tool-dcmvalidate</artifactId> <version>3.3.7</version> </dependency> <!-- https://mvnrepository.com/artifact/org.dcm4che.tool/dcm4che-tool-emf2sf --> <dependency> <groupId>org.dcm4che.tool</groupId> <artifactId>dcm4che-tool-emf2sf</artifactId> <version>3.3.7</version> </dependency> <!-- https://mvnrepository.com/artifact/org.dcm4che.tool/dcm4che-tool-findscu --> <dependency> <groupId>org.dcm4che.tool</groupId> <artifactId>dcm4che-tool-findscu</artifactId> <version>3.3.7</version> </dependency> <dependency> <groupId>org.dcm4che.tool</groupId> <artifactId>dcm4che-tool-getscu</artifactId> <version>3.3.7</version> </dependency> <!-- https://mvnrepository.com/artifact/org.dcm4che.tool/dcm4che-tool-hl7pix --> <dependency> <groupId>org.dcm4che.tool</groupId> <artifactId>dcm4che-tool-hl7pix</artifactId> <version>3.3.7</version> </dependency> <!-- https://mvnrepository.com/artifact/org.dcm4che.tool/dcm4che-tool-hl7rcv --> <dependency> <groupId>org.dcm4che.tool</groupId> <artifactId>dcm4che-tool-hl7rcv</artifactId> <version>3.3.7</version> </dependency> <!-- https://mvnrepository.com/artifact/org.dcm4che.tool/dcm4che-tool-hl7snd --> <dependency> <groupId>org.dcm4che.tool</groupId> <artifactId>dcm4che-tool-hl7snd</artifactId> <version>3.3.7</version> </dependency> <dependency> <groupId>org.dcm4che.tool</groupId> <artifactId>dcm4che-tool-hl72xml</artifactId> <version>3.3.7</version> </dependency> <!-- https://mvnrepository.com/artifact/org.dcm4che.tool/dcm4che-tool-ianscp --> <dependency> <groupId>org.dcm4che.tool</groupId> <artifactId>dcm4che-tool-ianscp</artifactId> <version>3.3.7</version> </dependency> <dependency> <groupId>org.dcm4che.tool</groupId> <artifactId>dcm4che-tool-ianscu</artifactId> <version>3.3.7</version> </dependency> <!-- https://mvnrepository.com/artifact/org.dcm4che.tool.ihe/dcm4che-tool-ihe-modality --> <dependency> <groupId>org.dcm4che.tool.ihe</groupId> <artifactId>dcm4che-tool-ihe-modality</artifactId> <version>3.3.7</version> </dependency> <!-- https://mvnrepository.com/artifact/org.dcm4che.tool/dcm4che-tool-jpg2dcm --> <dependency> <groupId>org.dcm4che.tool</groupId> <artifactId>dcm4che-tool-jpg2dcm</artifactId> <version>3.3.7</version> </dependency> <dependency> <groupId>org.dcm4che.tool</groupId> <artifactId>dcm4che-tool-json2dcm</artifactId> <version>3.3.7</version> </dependency> <!-- https://mvnrepository.com/artifact/org.dcm4che.tool/dcm4che-tool-mkkos --> <dependency> <groupId>org.dcm4che.tool</groupId> <artifactId>dcm4che-tool-mkkos</artifactId> <version>3.3.7</version> </dependency> <!-- https://mvnrepository.com/artifact/org.dcm4che.tool/dcm4che-tool-movescu --> <dependency> <groupId>org.dcm4che.tool</groupId> <artifactId>dcm4che-tool-movescu</artifactId> <version>3.3.7</version> </dependency> <!-- https://mvnrepository.com/artifact/org.dcm4che.tool/dcm4che-tool-mppsscp --> <dependency> <groupId>org.dcm4che.tool</groupId> <artifactId>dcm4che-tool-mppsscp</artifactId> <version>3.3.7</version> </dependency> <!-- https://mvnrepository.com/artifact/org.dcm4che.tool/dcm4che-tool-mppsscu --> <dependency> <groupId>org.dcm4che.tool</groupId> <artifactId>dcm4che-tool-mppsscu</artifactId> <version>3.3.7</version> </dependency> <!-- https://mvnrepository.com/artifact/org.dcm4che.tool/dcm4che-tool-prefs2xml --> <dependency> <groupId>org.dcm4che.tool</groupId> <artifactId>dcm4che-tool-prefs2xml</artifactId> <version>3.3.7</version> </dependency> <!-- https://mvnrepository.com/artifact/org.dcm4che.tool/dcm4che-tool-qc --> <dependency> <groupId>org.dcm4che.tool</groupId> <artifactId>dcm4che-tool-qc</artifactId> <version>3.3.7</version> </dependency> <dependency> <groupId>org.dcm4che.tool</groupId> <artifactId>dcm4che-tool-qidors</artifactId> <version>3.3.7</version> </dependency> <!-- https://mvnrepository.com/artifact/org.dcm4che.tool/dcm4che-tool-stgcmtscu --> <dependency> <groupId>org.dcm4che.tool</groupId> <artifactId>dcm4che-tool-stgcmtscu</artifactId> <version>3.3.7</version> </dependency> <!-- https://mvnrepository.com/artifact/org.dcm4che.tool/dcm4che-tool-storescp --> <dependency> <groupId>org.dcm4che.tool</groupId> <artifactId>dcm4che-tool-storescp</artifactId> <version>3.3.7</version> </dependency> <!-- https://mvnrepository.com/artifact/org.dcm4che.tool/dcm4che-tool-storescu --> <dependency> <groupId>org.dcm4che.tool</groupId> <artifactId>dcm4che-tool-storescu</artifactId> <version>3.3.7</version> </dependency> <!-- https://mvnrepository.com/artifact/org.dcm4che.tool/dcm4che-tool-stowrs --> <dependency> <groupId>org.dcm4che.tool</groupId> <artifactId>dcm4che-tool-stowrs</artifactId> <version>3.3.7</version> </dependency> <dependency> <groupId>org.dcm4che.tool</groupId> <artifactId>dcm4che-tool-syslog</artifactId> <version>3.3.7</version> </dependency> <!-- https://mvnrepository.com/artifact/org.dcm4che.tool/dcm4che-tool-syslogd --> <dependency> <groupId>org.dcm4che.tool</groupId> <artifactId>dcm4che-tool-syslogd</artifactId> <version>3.3.7</version> </dependency> <!-- https://mvnrepository.com/artifact/org.dcm4che.tool/dcm4che-tool-wadors --> <dependency> <groupId>org.dcm4che.tool</groupId> <artifactId>dcm4che-tool-wadors</artifactId> <version>3.3.7</version> </dependency> <!-- https://mvnrepository.com/artifact/org.dcm4che.tool/dcm4che-tool-wadouri --> <dependency> <groupId>org.dcm4che.tool</groupId> <artifactId>dcm4che-tool-wadouri</artifactId> <version>3.3.7</version> </dependency> <dependency> <groupId>org.dcm4che.tool</groupId> <artifactId>dcm4che-tool-xml2dcm</artifactId> <version>3.3.7</version> </dependency> <!-- https://mvnrepository.com/artifact/org.dcm4che.tool/dcm4che-tool-xml2hl7 --> <dependency> <groupId>org.dcm4che.tool</groupId> <artifactId>dcm4che-tool-xml2hl7</artifactId> <version>3.3.7</version> </dependency> <!-- https://mvnrepository.com/artifact/org.dcm4che.tool/dcm4che-tool-xml2prefs --> <dependency> <groupId>org.dcm4che.tool</groupId> <artifactId>dcm4che-tool-xml2prefs</artifactId> <version>3.3.7</version> </dependency> <!-- https://mvnrepository.com/artifact/org.dcm4che/dcm4che-ws-rs --> <dependency> <groupId>org.dcm4che</groupId> <artifactId>dcm4che-ws-rs</artifactId> <version>3.3.7</version> </dependency> <!-- https://mvnrepository.com/artifact/org.glassfish/javax.json --> <dependency> <groupId>org.glassfish</groupId> <artifactId>javax.json</artifactId> <version>1.0.4</version> </dependency> <dependency> <groupId>javax.json</groupId> <artifactId>javax.json-api</artifactId> <version>1.1.4</version> </dependency> <!-- https://mvnrepository.com/artifact/log4j/log4j --> <!--<dependency>--> <!--<groupId>log4j</groupId>--> <!--<artifactId>log4j</artifactId>--> <!--<version>1.2.17</version>--> <!--</dependency>--> <!-- https://mvnrepository.com/artifact/org.slf4j/slf4j-api --> <dependency> <groupId>org.slf4j</groupId> <artifactId>slf4j-api</artifactId> <version>1.7.25</version> </dependency> <!-- https://mvnrepository.com/artifact/org.slf4j/slf4j-log4j12 --> <dependency> <groupId>org.slf4j</groupId> <artifactId>slf4j-log4j12</artifactId> <version>1.7.25</version> </dependency> <!-- 倒入jar --> <dependency> <groupId>org.dcm4che</groupId> <artifactId>dcm4che-imageio</artifactId> <version>5.17.0</version> </dependency> <dependency> <groupId>org.dcm4che</groupId> <artifactId>dcm4che-imageio-rle</artifactId> <version>5.17.0</version> <scope>runtime</scope> </dependency> <dependency> <groupId>org.dcm4che</groupId> <artifactId>dcm4che-imageio-opencv</artifactId> <version>5.17.0</version> <scope>runtime</scope> </dependency> <!--<dependency>--> <!--<groupId>com.sun.media</groupId>--> <!--<artifactId>jai_imageio</artifactId>--> <!--<version>1.2-pre-dr-b04</version>--> <!--<scope>runtime</scope>--> <!--</dependency>--> <dependency> <groupId>org.dcm4che.tool</groupId> <artifactId>dcm4che-tool-common</artifactId> <version>3.3.7</version> </dependency> <dependency> <groupId>com.alibaba</groupId> <artifactId>fastjson</artifactId> <version>1.2.47</version> </dependency> ```
求助程序退出时opencv产生内存泄露
编程环境VS2019+opencv4.4.4, MFC工程。 在程序中只要定义了Mat类型变量,无论预先设没设定没空间,在Dubuggh都会产生许多的内存泄露。如下所示: Dumping objects -> {7321} normal block at 0x0000024FF6B39920, 8 bytes long. Data: <h > 68 F9 CB 84 FF 7F 00 00 {7181} normal block at 0x0000024FF6B3A190, 16 bytes long. Data: <H;1 > 48 3B 31 86 FF 7F 00 00 00 00 00 00 00 00 00 00 {7180} normal block at 0x0000024FF6B39BA0, 16 bytes long. Data: < ;1 > C0 3B 31 86 FF 7F 00 00 00 00 00 00 00 00 00 00 {7179} normal block at 0x0000024FF6B39790, 16 bytes long. Data: <p;1 > 70 3B 31 86 FF 7F 00 00 00 00 00 00 00 00 00 00 {7178} normal block at 0x0000024FF6B39290, 16 bytes long. Data: < ;1 > 98 3B 31 86 FF 7F 00 00 00 00 00 00 00 00 00 00 {7177} normal block at 0x0000024FF6B39CE0, 16 bytes long. Data: <H * > 48 07 2A 86 FF 7F 00 00 00 00 00 00 00 00 00 00 {7176} normal block at 0x0000024FF6B392E0, 16 bytes long. Data: < * > C0 07 2A 86 FF 7F 00 00 00 00 00 00 00 00 00 00 {7175} normal block at 0x0000024FF6B39420, 16 bytes long. Data: <p * > 70 07 2A 86 FF 7F 00 00 00 00 00 00 00 00 00 00 {7174} normal block at 0x0000024FF6B39600, 16 bytes long. Data: < * > 98 07 2A 86 FF 7F 00 00 00 00 00 00 00 00 00 00 {7173} normal block at 0x0000024FF6B3A230, 16 bytes long. Data: < * > 88 06 2A 86 FF 7F 00 00 00 00 00 00 00 00 00 00 {7172} normal block at 0x0000024FF6B39B50, 16 bytes long. Data: < * > 00 07 2A 86 FF 7F 00 00 00 00 00 00 00 00 00 00 {7171} normal block at 0x0000024FF6B3A320, 16 bytes long. Data: < * > B0 06 2A 86 FF 7F 00 00 00 00 00 00 00 00 00 00 {7170} normal block at 0x0000024FF6B39A10, 16 bytes long. Data: < * > D8 06 2A 86 FF 7F 00 00 00 00 00 00 00 00 00 00 {7169} normal block at 0x0000024FF6B39560, 16 bytes long. Data: < * > C8 05 2A 86 FF 7F 00 00 00 00 00 00 00 00 00 00 {7168} normal block at 0x0000024FF6B39C40, 16 bytes long. Data: <@ * > 40 06 2A 86 FF 7F 00 00 00 00 00 00 00 00 00 00 {7167} normal block at 0x0000024FF6B3A000, 16 bytes long. Data: < * > F0 05 2A 86 FF 7F 00 00 00 00 00 00 00 00 00 00 {7166} normal block at 0x0000024FF6B39B00, 16 bytes long. Data: < * > 18 06 2A 86 FF 7F 00 00 00 00 00 00 00 00 00 00 {7165} normal block at 0x0000024FF6B39F60, 16 bytes long. Data: < * > 08 05 2A 86 FF 7F 00 00 00 00 00 00 00 00 00 00 {7164} normal block at 0x0000024FF6B3A2D0, 16 bytes long. Data: < * > 80 05 2A 86 FF 7F 00 00 00 00 00 00 00 00 00 00 {7163} normal block at 0x0000024FF6B39DD0, 16 bytes long. Data: <0 * > 30 05 2A 86 FF 7F 00 00 00 00 00 00 00 00 00 00 {7162} normal block at 0x0000024FF6B39AB0, 16 bytes long. Data: <X * > 58 05 2A 86 FF 7F 00 00 00 00 00 00 00 00 00 00 {7161} normal block at 0x0000024FF6B39D80, 16 bytes long. Data: <H * > 48 04 2A 86 FF 7F 00 00 00 00 00 00 00 00 00 00 {7160} normal block at 0x0000024FF6B39E70, 16 bytes long. Data: < * > C0 04 2A 86 FF 7F 00 00 00 00 00 00 00 00 00 00 {7159} normal block at 0x0000024FF6B395B0, 16 bytes long. Data: <p * > 70 04 2A 86 FF 7F 00 00 00 00 00 00 00 00 00 00 {7158} normal block at 0x0000024FF6B3A410, 16 bytes long. Data: < * > 98 04 2A 86 FF 7F 00 00 00 00 00 00 00 00 00 00 {7157} normal block at 0x0000024FF6B399C0, 16 bytes long. Data: < * > 80 03 2A 86 FF 7F 00 00 00 00 00 00 00 00 00 00 {7156} normal block at 0x0000024FF6B39240, 16 bytes long. Data: < * > F8 03 2A 86 FF 7F 00 00 00 00 00 00 00 00 00 00 {7155} normal block at 0x0000024FF6B396A0, 16 bytes long. Data: < * > A8 03 2A 86 FF 7F 00 00 00 00 00 00 00 00 00 00 {7154} normal block at 0x0000024FF6B39380, 16 bytes long. Data: < * > D0 03 2A 86 FF 7F 00 00 00 00 00 00 00 00 00 00 {7152} normal block at 0x0000024FF6B39C90, 16 bytes long. Data: < * > A8 02 2A 86 FF 7F 00 00 00 00 00 00 00 00 00 00 {7151} normal block at 0x0000024FF6B3A780, 16 bytes long. ..................... 在程序退出前也都有用release释放。在网上查了许多放法,什么在静态库中使用 MFC ,或设为延迟加载opencv库,都不好用,哪 位大神有好的解决办法帮一下呗,谢谢。
VS2013运行opencv3自带的lkdemo例程报错。。。求助大神
运行opencv3自带的lkdemo例程,程序可以运行,但鼠标点选角点后,程序便会报错。下图是详细情况。源码如下: #include "stdafx.h" #include "opencv2/video/tracking.hpp" #include "opencv2/imgproc/imgproc.hpp" #include "opencv2/videoio/videoio.hpp" #include "opencv2/highgui/highgui.hpp" #include <iostream> #include <ctype.h> using namespace cv; using namespace std; static void help() { // print a welcome message, and the OpenCV version cout << "\nThis is a demo of Lukas-Kanade optical flow lkdemo(),\n" "Using OpenCV version " << CV_VERSION << endl; cout << "\nIt uses camera by default, but you can provide a path to video as an argument.\n"; cout << "\nHot keys: \n" "\tESC - quit the program\n" "\tr - auto-initialize tracking\n" "\tc - delete all the points\n" "\tn - switch the \"night\" mode on/off\n" "To add/remove a feature point click it\n" << endl; } Point2f point; bool addRemovePt = false; static void onMouse(int event, int x, int y, int /*flags*/, void* /*param*/) { if (event == EVENT_LBUTTONDOWN) { point = Point2f((float)x, (float)y); addRemovePt = true; } } int main() { help(); VideoCapture cap; cap.open("phone.mp4"); TermCriteria termcrit(TermCriteria::COUNT | TermCriteria::EPS, 20, 0.03); Size subPixWinSize(10, 10), winSize(31, 31); const int MAX_COUNT = 500; bool needToInit = false; bool nightMode = false; if (!cap.isOpened()) { cout << "Could not initialize capturing...\n"; return 0; } namedWindow("LK Demo", 1); setMouseCallback("LK Demo", onMouse, 0); Mat gray, prevGray, image, frame; vector<Point2f> points[2]; for (;;) { cap >> frame; if (frame.empty()) break; frame.copyTo(image); cvtColor(image, gray, COLOR_BGR2GRAY); if (nightMode) image = Scalar::all(0); if (needToInit) { // automatic initialization goodFeaturesToTrack(gray, points[1], MAX_COUNT, 0.01, 10, Mat(), 3, 0, 0.04); cornerSubPix(gray, points[1], subPixWinSize, Size(-1, -1), termcrit); addRemovePt = false; } else if (!points[0].empty()) { vector<uchar> status; vector<float> err; if (prevGray.empty()) gray.copyTo(prevGray); calcOpticalFlowPyrLK(prevGray, gray, points[0], points[1], status, err, winSize, 3, termcrit, 0, 0.001); size_t i, k; for (i = k = 0; i < points[1].size(); i++) { if (addRemovePt) { if (norm(point - points[1][i]) <= 5) { addRemovePt = false; continue; } } if (!status[i]) continue; points[1][k++] = points[1][i]; circle(image, points[1][i], 3, Scalar(0, 255, 0), -1, 8); } points[1].resize(k); } if (addRemovePt && points[1].size() < (size_t)MAX_COUNT) { vector<Point2f> tmp; tmp.push_back(point); cornerSubPix(gray, tmp, winSize, Size(-1, -1), termcrit); points[1].push_back(tmp[0]); addRemovePt = false; } needToInit = false; imshow("LK Demo", image); char c = (char)waitKey(10); if (c == 27) break; switch (c) { case 'r': needToInit = true; break; case 'c': points[0].clear(); points[1].clear(); break; case 'n': nightMode = !nightMode; break; } std::swap(points[1], points[0]); cv::swap(prevGray, gray); } return 0; } 程序死在了calcOpticalFlowPyrLK(prevGray, gray, points[0], points[1], status, err, winSize, 3, termcrit, 0, 0.001);一句
在中国程序员是青春饭吗?
今年,我也32了 ,为了不给大家误导,咨询了猎头、圈内好友,以及年过35岁的几位老程序员……舍了老脸去揭人家伤疤……希望能给大家以帮助,记得帮我点赞哦。 目录: 你以为的人生 一次又一次的伤害 猎头界的真相 如何应对互联网行业的「中年危机」 一、你以为的人生 刚入行时,拿着傲人的工资,想着好好干,以为我们的人生是这样的: 等真到了那一天,你会发现,你的人生很可能是这样的: ...
《MySQL 性能优化》之理解 MySQL 体系结构
本文介绍 MySQL 的体系结构,包括物理结构、逻辑结构以及插件式存储引擎。
【资源】一个C/C++开发工程师的学习路线(已经无路可退,唯有逆风飞翔)【内附资源页】
声明: 1)该文章整理自网上的大牛和专家无私奉献的资料,具体引用的资料请看参考文献。 2)本文仅供学术交流,非商用。所以每一部分具体的参考资料并没有详细对应。如果某部分不小心侵犯了大家的利益,还望海涵,并联系博主删除。 3)博主才疏学浅,文中如有不当之处,请各位指出,共同进步,谢谢。 4)此属于第一版本,若有错误,还需继续修正与增删。还望大家多多指点。大家都共享一点点,一起为祖国科研的推进...
程序员请照顾好自己,周末病魔差点一套带走我。
程序员在一个周末的时间,得了重病,差点当场去世,还好及时挽救回来了。
20道你必须要背会的微服务面试题,面试一定会被问到
写在前面: 在学习springcloud之前大家一定要先了解下,常见的面试题有那块,然后我们带着问题去学习这个微服务技术,那么就会更加理解springcloud技术。如果你已经学了springcloud,那么在准备面试的时候,一定要看看看这些面试题。 文章目录1、什么是微服务?2、微服务之间是如何通讯的?3、springcloud 与dubbo有哪些区别?4、请谈谈对SpringBoot 和S...
达摩院十大科技趋势发布:2020 非同小可!
【CSDN编者按】1月2日,阿里巴巴发布《达摩院2020十大科技趋势》,十大科技趋势分别是:人工智能从感知智能向认知智能演进;计算存储一体化突破AI算力瓶颈;工业互联网的超融合;机器间大规模协作成为可能;模块化降低芯片设计门槛;规模化生产级区块链应用将走入大众;量子计算进入攻坚期;新材料推动半导体器件革新;保护数据隐私的AI技术将加速落地;云成为IT技术创新的中心 。 新的画卷,正在徐徐展开。...
轻松搭建基于 SpringBoot + Vue 的 Web 商城应用
首先介绍下在本文出现的几个比较重要的概念: 函数计算(Function Compute): 函数计算是一个事件驱动的服务,通过函数计算,用户无需管理服务器等运行情况,只需编写代码并上传。函数计算准备计算资源,并以弹性伸缩的方式运行用户代码,而用户只需根据实际代码运行所消耗的资源进行付费。Fun: Fun 是一个用于支持 Serverless 应用部署的工具,能帮助您便捷地管理函数计算、API ...
Python+OpenCV实时图像处理
目录 1、导入库文件 2、设计GUI 3、调用摄像头 4、实时图像处理 4.1、阈值二值化 4.2、边缘检测 4.3、轮廓检测 4.4、高斯滤波 4.5、色彩转换 4.6、调节对比度 5、退出系统 初学OpenCV图像处理的小伙伴肯定对什么高斯函数、滤波处理、阈值二值化等特性非常头疼,这里给各位分享一个小项目,可通过摄像头实时动态查看各类图像处理的特点,也可对各位调参、测试...
2020年一线城市程序员工资大调查
人才需求 一线城市共发布岗位38115个,招聘120827人。 其中 beijing 22805 guangzhou 25081 shanghai 39614 shenzhen 33327 工资分布 2020年中国一线城市程序员的平均工资为16285元,工资中位数为14583元,其中95%的人的工资位于5000到20000元之间。 和往年数据比较: yea...
为什么猝死的都是程序员,基本上不见产品经理猝死呢?
相信大家时不时听到程序员猝死的消息,但是基本上听不到产品经理猝死的消息,这是为什么呢? 我们先百度搜一下:程序员猝死,出现将近700多万条搜索结果: 搜索一下:产品经理猝死,只有400万条的搜索结果,从搜索结果数量上来看,程序员猝死的搜索结果就比产品经理猝死的搜索结果高了一倍,而且从下图可以看到,首页里面的五条搜索结果,其实只有两条才是符合条件。 所以程序员猝死的概率真的比产品经理大,并不是错...
害怕面试被问HashMap?这一篇就搞定了!
声明:本文以jdk1.8为主! 搞定HashMap 作为一个Java从业者,面试的时候肯定会被问到过HashMap,因为对于HashMap来说,可以说是Java集合中的精髓了,如果你觉得自己对它掌握的还不够好,我想今天这篇文章会非常适合你,至少,看了今天这篇文章,以后不怕面试被问HashMap了 其实在我学习HashMap的过程中,我个人觉得HashMap还是挺复杂的,如果真的想把它搞得明明白...
毕业5年,我问遍了身边的大佬,总结了他们的学习方法
我问了身边10个大佬,总结了他们的学习方法,原来成功都是有迹可循的。
python爬取百部电影数据,我分析出了一个残酷的真相
2019年就这么匆匆过去了,就在前几天国家电影局发布了2019年中国电影市场数据,数据显示去年总票房为642.66亿元,同比增长5.4%;国产电影总票房411.75亿元,同比增长8.65%,市场占比 64.07%;城市院线观影人次17.27亿,同比增长0.64%。 看上去似乎是一片大好对不对?不过作为一名严谨求实的数据分析师,我从官方数据中看出了一点端倪:国产票房增幅都已经高达8.65%了,为什...
推荐10个堪称神器的学习网站
每天都会收到很多读者的私信,问我:“二哥,有什么推荐的学习网站吗?最近很浮躁,手头的一些网站都看烦了,想看看二哥这里有什么新鲜货。” 今天一早做了个恶梦,梦到被老板辞退了。虽然说在我们公司,只有我辞退老板的份,没有老板辞退我这一说,但是还是被吓得 4 点多都起来了。(主要是因为我掌握着公司所有的核心源码,哈哈哈) 既然 4 点多起来,就得好好利用起来。于是我就挑选了 10 个堪称神器的学习网站,推...
这些软件太强了,Windows必装!尤其程序员!
Windows可谓是大多数人的生产力工具,集娱乐办公于一体,虽然在程序员这个群体中都说苹果是信仰,但是大部分不都是从Windows过来的,而且现在依然有很多的程序员用Windows。 所以,今天我就把我私藏的Windows必装的软件分享给大家,如果有一个你没有用过甚至没有听过,那你就赚了????,这可都是提升你幸福感的高效率生产力工具哦! 走起!???? NO、1 ScreenToGif 屏幕,摄像头和白板...
阿里面试,面试官没想到一个ArrayList,我都能跟他扯半小时
我是真的没想到,面试官会这样问我ArrayList。
曾经优秀的人,怎么就突然不优秀了。
职场上有很多辛酸事,很多合伙人出局的故事,很多技术骨干被裁员的故事。说来模板都类似,曾经是名校毕业,曾经是优秀员工,曾经被领导表扬,曾经业绩突出,然而突然有一天,因为种种原因,被裁员了,...
大学四年因为知道了这32个网站,我成了别人眼中的大神!
依稀记得,毕业那天,我们导员发给我毕业证的时候对我说“你可是咱们系的风云人物啊”,哎呀,别提当时多开心啦????,嗯,我们导员是所有导员中最帅的一个,真的???? 不过,导员说的是实话,很多人都叫我大神的,为啥,因为我知道这32个网站啊,你说强不强????,这次是绝对的干货,看好啦,走起来! PS:每个网站都是学计算机混互联网必须知道的,真的牛杯,我就不过多介绍了,大家自行探索,觉得没用的,尽管留言吐槽吧???? 社...
良心推荐,我珍藏的一些Chrome插件
上次搬家的时候,发了一个朋友圈,附带的照片中不小心暴露了自己的 Chrome 浏览器插件之多,于是就有小伙伴评论说分享一下我觉得还不错的浏览器插件。 我下面就把我日常工作和学习中经常用到的一些 Chrome 浏览器插件分享给大家,随便一个都能提高你的“生活品质”和工作效率。 Markdown Here Markdown Here 可以让你更愉快的写邮件,由于支持 Markdown 直接转电子邮...
看完这篇HTTP,跟面试官扯皮就没问题了
我是一名程序员,我的主要编程语言是 Java,我更是一名 Web 开发人员,所以我必须要了解 HTTP,所以本篇文章就来带你从 HTTP 入门到进阶,看完让你有一种恍然大悟、醍醐灌顶的感觉。 最初在有网络之前,我们的电脑都是单机的,单机系统是孤立的,我还记得 05 年前那会儿家里有个电脑,想打电脑游戏还得两个人在一个电脑上玩儿,及其不方便。我就想为什么家里人不让上网,我的同学 xxx 家里有网,每...
2020 年,大火的 Python 和 JavaScript 是否会被取而代之?
Python 和 JavaScript 是目前最火的两大编程语言,但是2020 年,什么编程语言将会取而代之呢? 作者 |Richard Kenneth Eng 译者 |明明如月,责编 | 郭芮 出品 | CSDN(ID:CSDNnews) 以下为译文: Python 和 JavaScript 是目前最火的两大编程语言。然而,他们不可能永远屹立不倒。最终,必将像其他编程语言一...
史上最全的IDEA快捷键总结
现在Idea成了主流开发工具,这篇博客对其使用的快捷键做了总结,希望对大家的开发工作有所帮助。
阿里程序员写了一个新手都写不出的低级bug,被骂惨了。
这种新手都不会范的错,居然被一个工作好几年的小伙子写出来,差点被当场开除了。
谁是华为扫地僧?
是的,华为也有扫地僧!2020年2月11-12日,“养在深闺人不知”的华为2012实验室扫地僧们,将在华为开发者大会2020(Cloud)上,和大家见面。到时,你可以和扫地僧们,吃一个洋...
AI 没让人类失业,搞 AI 的人先失业了
最近和几个 AI 领域的大佬闲聊 根据他们讲的消息和段子 改编出下面这个故事 如有雷同 都是巧合 1. 老王创业失败,被限制高消费 “这里写我跑路的消息实在太夸张了。” 王葱葱哼笑一下,把消息分享给群里。 阿杰也看了消息,笑了笑。在座几位也都笑了。 王葱葱是个有名的人物,21岁那年以全额奖学金进入 KMU 攻读人工智能博士,累计发表论文 40 余篇,个人技术博客更是成为深度学习领域内风向标。 ...
2020年,冯唐49岁:我给20、30岁IT职场年轻人的建议
点击“技术领导力”关注∆每天早上8:30推送 作者|Mr.K 编辑| Emma 来源|技术领导力(ID:jishulingdaoli) 前天的推文《冯唐:职场人35岁以后,方法论比经验重要》,收到了不少读者的反馈,觉得挺受启发。其实,冯唐写了不少关于职场方面的文章,都挺不错的。可惜大家只记住了“春风十里不如你”、“如何避免成为油腻腻的中年人”等不那么正经的文章。 本文整理了冯...
神级宝库!GitHub 标星 1.2w+,Chrome 最天秀的插件都在这里啦!
作者 | Rocky0429 来源 | Python空间 大家好,我是 Rocky0429,一个沉迷 Chrome 不能自拔的蒟蒻… 作为一个在远古时代用过什么 IE、360、猎豹等浏览器的资深器哥,当我第一次了解 Chrome 的时候,就被它的美貌给吸引住了… 就在我用了一段时间之后,我坚决的卸载了电脑上其它碍眼的浏览器,并觉得在之前的搬砖生涯中,我不配当哥,我只配是个沙雕… ...
作为一名大学生,如何在B站上快乐的学习?
B站是个宝,谁用谁知道???? 作为一名大学生,你必须掌握的一项能力就是自学能力,很多看起来很牛X的人,你可以了解下,人家私底下一定是花大量的时间自学的,你可能会说,我也想学习啊,可是嘞,该学习啥嘞,不怕告诉你,互联网时代,最不缺的就是学习资源,最宝贵的是啥? 你可能会说是时间,不,不是时间,而是你的注意力,懂了吧! 那么,你说学习资源多,我咋不知道,那今天我就告诉你一个你必须知道的学习的地方,人称...
那些年,我们信了课本里的那些鬼话
教材永远都是有错误的,从小学到大学,我们不断的学习了很多错误知识。 斑羚飞渡 在我们学习的很多小学课文里,有很多是错误文章,或者说是假课文。像《斑羚飞渡》: 随着镰刀头羊的那声吼叫,整个斑羚群迅速分成两拨,老年斑羚为一拨,年轻斑羚为一拨。 就在这时,我看见,从那拨老斑羚里走出一只公斑羚来。公斑羚朝那拨年轻斑羚示意性地咩了一声,一只半大的斑羚应声走了出来。一老一少走到伤心崖,后退了几步,突...
张朝阳回应迟到 1 分钟罚 500:资本家就得剥削员工
loonggg读完需要2分钟速读仅需 1 分钟大家我,我是你们的校长。前几天,搜狐的董事局主席兼 CEO 张朝阳和搜狐都上热搜了。原因很简单,就是搜狐出了“考勤新规”。一封搜狐对员工发布...
立即提问