配置mpi在两个节点上运行,报错“Open RTE detected a parse error in the hostfile“ 5C

两个centos7.5的主机,hostname分别为node01,node02,已配置好两个节点免密码SSH登陆,openmpi已配置安装完成,单节点多并发可正常运行,但是多节点并发运行就会报下面的错误:
在mpihosts文件和1m-iortest-28文件所在路径下执行下面命令:
mpirun --allow-run-as-root -- mca plm____rsh_no_tree 1 npernode 8 -hostfile mpihosts ior -f 1m-iortest-28

报错:

Open RTE detected a parse error in the hostfile
mpihosts
It occured on line number 37 on token 1
---------------------------------------------------------------_

mpihosts文件内容为:

node01 slots=8
node02 slots=8

有没有大神指点下这个可能是什么原因?

1个回答

Csdn user default icon
上传中...
上传图片
插入图片
抄袭、复制答案,以达到刷声望分或其他目的的行为,在CSDN问答是严格禁止的,一经发现立刻封号。是时候展现真正的技术了!
其他相关推荐
mpi在多节点上的运行问题
我安转的是openmpi,用mpirun在两个节点上运行的时候出现如下错误,求助是什么原因。 shell$: /usr/local/openmpi/bin/mpiexec -np 2 --hostfile nodeinfo ./test 错误提示: Primary job terminated normally, but 1 process returned a non-zero exit code.. Per user-direction, the job has been aborted. ------------------------------------------------------- ./test: error while loading shared libraries: libcudart.so.9.0: cannot open shared object file: No such file or directory ./test: error while loading shared libraries: libcudart.so.9.0: cannot open shared object file: No such file or directory -------------------------------------------------------------------------- mpiexec detected that one or more processes exited with non-zero status, thus causing the job to be terminated. The first process to do so was: Process name: [[65150,1],0] Exit code: 127 ----------------------
多节点运行cuda+mpi时报错 cudaEvent报错
我在一个小集群上运行mpi+cuda的程序,设置了cuda计时,但是其中一个节点运行到 CUDA_CALL(cudaEventRecord(stop, 0)); CUDA_CALL(cudaEventSynchronize(stop)); 时报错: CUDA Error: invalid resource handle (err_num=33) 其他节点正常运行,请问这是什么原因。
mpi运行时,mpirun时总是报错
============================= === BAD TERMINATION OF ONE OF YOUR APPLICATION PRECESSES PID 2660 RUNNING AT frame-UX430UNR EXIT COD :9 CLEANING UO REMAINING PRECESSES YOU AN IGNORE THE BELOW CLEANUP MESSAGES YOUR APPLICATION TERMINATED WITH THE EXIT STRING: Killed(siganl 9) Thie typically refers to a problem with your application. Please see the FAQ page for debugging suggestions 源代码如下: int main() { int numprocs, myrank; MPI_Init(&argc,&argv); MPI_Comm_rank(MPI_COMM_WORLD, &myrank); MPI_Comm_size(MPI_COMM_WORLD, &numprocs); CS cs; cs.InputTxtData(); .......... } void CS::InputTxtData() { ifstream fin_Ca("Data[txt].dat",ios::in ); fin_Ca>>dX1>>dY1>>dZ1>>dX2>>dY2>>dZ2>>endl; ........ }
Cygwin mpi 代码运行报错,请问是安装时少选择了文件吗?
![图片说明](https://img-ask.csdn.net/upload/201908/26/1566819029_585411.png) Cygwin mpi 代码运行报错,请问是安装时少选择了文件吗? Fortran90代码如下: PROGRAM TUTE2Q1 IMPLICIT NONE INCLUDE 'mpif.h' ! Variable declartion INTEGER :: i,pid,nprocs,ierr CALL MPI_INIT(ierr) ! Initialize MPI Program CALL MPI_COMM_SIZE(MPI_COMM_WORLD,nprocs,ierr) ! Get Size of Communicator (Number of procs) CALL MPI_COMM_RANK(MPI_COMM_WORLD,pid,ierr) ! Get Rank of Communicator (proc id) ! If root write header IF (pid.EQ.0) THEN WRITE(*,1100) "N Procs","PID","Message" ENDIF ! Synchronize CALL MPI_BARRIER(MPI_COMM_WORLD,ierr) ! Write out sequentially DO i = 0,nprocs-1 IF (pid.EQ.i) THEN ! Write out data WRITE(*,1200) nprocs,pid,"Hello World" ENDIF ! Synchronize CALL MPI_BARRIER(MPI_COMM_WORLD,ierr) ENDDO 1100 FORMAT(3(A12,1x)) 1200 FORMAT(2(I12.1,1x),A12) ! Finalize MPI program CALL MPI_FINALIZE(ierr) END PROGRAM TUTE2Q1
Cygwin下Fortran mpi 代码运行报错,请问是安装时少选择了文件吗?
Cygwin mpi 代码运行报错,请问是安装时少选择了文件吗? Fortran90代码如下: PROGRAM TUTE2Q1 IMPLICIT NONE INCLUDE 'mpif.h' ! Variable declartion INTEGER :: i,pid,nprocs,ierr CALL MPI_INIT(ierr) ! Initialize MPI Program CALL MPI_COMM_SIZE(MPI_COMM_WORLD,nprocs,ierr) ! Get Size of Communicator (Number of procs) CALL MPI_COMM_RANK(MPI_COMM_WORLD,pid,ierr) ! Get Rank of Communicator (proc id) ! If root write header IF (pid.EQ.0) THEN WRITE(*,1100) "N Procs","PID","Message" ENDIF ! Synchronize CALL MPI_BARRIER(MPI_COMM_WORLD,ierr) ! Write out sequentially DO i = 0,nprocs-1 IF (pid.EQ.i) THEN ! Write out data WRITE(*,1200) nprocs,pid,"Hello World" ENDIF ! Synchronize CALL MPI_BARRIER(MPI_COMM_WORLD,ierr) ENDDO 1100 FORMAT(3(A12,1x)) 1200 FORMAT(2(I12.1,1x),A12) ! Finalize MPI program CALL MPI_FINALIZE(ierr) END PROGRAM TUTE2Q1
openmpi 运行出错 WARNING: Open MPI accepted a TCP connection
我在集群上用openmpi运行程序时,出现警告提示,然后程序会一直卡住,但是简单的例程却可以正常运行,请问是什么原因呢。 WARNING: Open MPI accepted a TCP connection from what appears to be a another Open MPI process but cannot find a corresponding process entry for that peer.
HI3559AV100平台vgs 处理osd HI_MPI_VGS_AddOsdTask 怎么使用
vgs 叠加osd,HI_MPI_VGS_AddOsdTask 这个api怎么使用呢? 参数中 VGS_ADD_OSD_S中,U64PhyAddr osd图像的物理地址,该怎么赋值呢? 使用场景是:在视频中显示图片或文字符号 有没有demo的可供参考
MPI并行计算时报错“由于目标计算机积极拒绝,无法连接”,此种情况是什么原因,怎么解决呢?
我在做优化设计时,优化程序经其他人测试没有问题,可以并行计算。但是在去哦自己电脑上运行时总是出现错误,我是使用.bat控制MPI并行计算的,.bat文件和运行报错截面如下: ![图片说明](https://img-ask.csdn.net/upload/201911/05/1572919953_575300.png)![图片说明](https://img-ask.csdn.net/upload/201911/05/1572920000_218929.png) 在尝试过网上相应的解决方法后依然无效,比如尝试打开MPICH2 Process Manager, Argonne National Lab 服务,但是发现服务一直是开启状态,开启服务业无法运行。 MPI安装好后用安装位置自带的测试程序对MPI进行了测试,发现MPI没有问题。 求各位大神指导,是什么原因导致此现象的,该怎么解决这个问题呢
两个节点四张显卡调用问题。
有个小的linux集群,两个节点四张显卡,现在可以用mpi连接两个节点, 目前只能利用cuda调用到两张卡来进行并行计算,如果要用上四张卡, 是不是得用到cuda上面的stream来(不知道这样表述对不对),还是有什么别的方法? 有没有办法使得mpi直接识别这四张卡? 欢迎大家畅所欲言哈。
MPI并行程序运行时报错,自己无法解决,求助
请教各位关于MPI并行的一个错误:op_read error on left context: Undefined dynamic error code unable to read the cmd header on the left context, Undefined dynamic error code. 请问这种MPI并行程序运行时报的错误可能是由什么原因造成的,程序本身的原因还是运行环境有问题,或者其它?之前自己遇到过一次,也是停在13000步左右,但是又运行程序侥幸算完了。这次在计算到4000步左右的时候停了,重开程序只算到14000步这里就停了(总共要算16384步)。
HI3518ev300 HI_MPI_VPSS_SetExtChnAttr 失败 0xA0078003,报错参数设置无
``` /******************************************************************************* *@ Description :配置VPSS的扩展通道 *@ Input :<vpssGrp>:组号 <vpssChn>:扩展通道号 <bindChn>:绑定到目标物理通道号 <width>:扩展通道图片的宽 <height>:扩展通道图片的高 <frmRate>扩展通道图片的帧率 *@ Output : *@ Return :成功:0 失败:错误码 *@ attention :该接口在H3518ev300(hi3516ev200)的SDK中设置不正常 *******************************************************************************/ static int vpss_config_ext_chn(VPSS_GRP vpssGrp, VPSS_CHN vpssChn, VPSS_CHN bindChn, int width, int height, int frmRate) { int ret; VPSS_EXT_CHN_ATTR_S extAttr = {0}; /*---#------------------------------------------------------------*/ printf("----ExtChnAttr:-----------------------------------------\n"); printf("extAttr.s32BindChn = %d\n",extAttr.s32BindChn); printf("extAttr.u32Width = %d\n",extAttr.u32Width); printf("extAttr.u32Height = %d\n",extAttr.u32Height); printf("extAttr.enVideoFormat = %d\n",extAttr.enVideoFormat); printf("extAttr.enPixelFormat = %d\n",extAttr.enPixelFormat); printf("extAttr.enDynamicRange = %d\n",extAttr.enDynamicRange); printf("extAttr.enCompressMode = %d\n",extAttr.enCompressMode); printf("extAttr.u32Depth = %d\n",extAttr.u32Depth); printf("extAttr.stFrameRate.s32SrcFrameRate = %d\n",extAttr.stFrameRate.s32SrcFrameRate); printf("extAttr.stFrameRate.s32DstFrameRate = %d\n",extAttr.stFrameRate.s32DstFrameRate); printf("-------------------------------------------------------\n"); /*---#------------------------------------------------------------*/ extAttr.s32BindChn = bindChn; extAttr.u32Width = width;//960; extAttr.u32Height = height;//540; extAttr.enVideoFormat = VIDEO_FORMAT_LINEAR; extAttr.enPixelFormat = PIXEL_FORMAT_YUV_SEMIPLANAR_420; extAttr.enDynamicRange = DYNAMIC_RANGE_SDR8; extAttr.enCompressMode = COMPRESS_MODE_NONE; extAttr.u32Depth = 0; extAttr.stFrameRate.s32SrcFrameRate = 15; extAttr.stFrameRate.s32DstFrameRate = frmRate; ret = HI_MPI_VPSS_SetExtChnAttr(vpssGrp, vpssChn, &extAttr); if (HI_SUCCESS != ret) { ERROR_LOG("HI_MPI_VPSS_SetExtChnAttr(%d, %d) fail: %#x!\n", vpssGrp, vpssChn, ret); return HLE_RET_ERROR; } ret = HI_MPI_VPSS_EnableChn(vpssGrp, vpssChn); if (HI_SUCCESS != ret) { ERROR_LOG("HI_MPI_VPSS_EnableChn(%d, %d) fail: %#x!\n", vpssGrp, vpssChn, ret); return HLE_RET_ERROR; } return HLE_RET_OK; } ``` ![图片说明](https://img-ask.csdn.net/upload/201909/29/1569723865_767347.jpg) 实现代码如上所述,VPSS 物理通道号是0,已经创建并使能, 扩展通道5绑定到物理通道0,总是报参数设置无效,怎么回事???
MPI Maelstrom
Description BIT has recently taken delivery of their new supercomputer, a 32 processor Apollo Odyssey distributed shared memory machine with a hierarchical communication subsystem. Valentine McKee's research advisor, Jack Swigert, has asked her to benchmark the new system. ``Since the Apollo is a distributed shared memory machine, memory access and communication times are not uniform,'' Valentine told Swigert. ``Communication is fast between processors that share the same memory subsystem, but it is slower between processors that are not on the same subsystem. Communication between the Apollo and machines in our lab is slower yet.'' ``How is Apollo's port of the Message Passing Interface (MPI) working out?'' Swigert asked. ``Not so well,'' Valentine replied. ``To do a broadcast of a message from one processor to all the other n-1 processors, they just do a sequence of n-1 sends. That really serializes things and kills the performance.'' ``Is there anything you can do to fix that?'' ``Yes,'' smiled Valentine. ``There is. Once the first processor has sent the message to another, those two can then send messages to two other hosts at the same time. Then there will be four hosts that can send, and so on.'' ``Ah, so you can do the broadcast as a binary tree!'' ``Not really a binary tree -- there are some particular features of our network that we should exploit. The interface cards we have allow each processor to simultaneously send messages to any number of the other processors connected to it. However, the messages don't necessarily arrive at the destinations at the same time -- there is a communication cost involved. In general, we need to take into account the communication costs for each link in our network topologies and plan accordingly to minimize the total time required to do a broadcast.'' Input The input will describe the topology of a network connecting n processors. The first line of the input will be n, the number of processors, such that 1 <= n <= 100. The rest of the input defines an adjacency matrix, A. The adjacency matrix is square and of size n x n. Each of its entries will be either an integer or the character x. The value of A(i,j) indicates the expense of sending a message directly from node i to node j. A value of x for A(i,j) indicates that a message cannot be sent directly from node i to node j. Note that for a node to send a message to itself does not require network communication, so A(i,i) = 0 for 1 <= i <= n. Also, you may assume that the network is undirected (messages can go in either direction with equal overhead), so that A(i,j) = A(j,i). Thus only the entries on the (strictly) lower triangular portion of A will be supplied. The input to your program will be the lower triangular section of A. That is, the second line of input will contain one entry, A(2,1). The next line will contain two entries, A(3,1) and A(3,2), and so on. Output Your program should output the minimum communication time required to broadcast a message from the first processor to all the other processors. Sample Input 5 50 30 5 100 20 50 10 x x 10 Sample Output 35
mpi配置问题显示mpi. h有语法错误
vs2010+mpi10+win0 64,按照网上的方法进行了配置,现在编译的时候会显示mpi.h有语法错误,有没有大神可以解答
mpi运行时出错This name does not have a type,
运行时出现类似错误,求大神指教 This name does not have a type, and must have an explicit type. [MPI_REAL] This name does not have a type, and must have an explicit type. [MPI_SUM] This name does not have a type, and must have an explicit type. [MPI_COMM_WORLD]
CentOS 7编译Fortran并行程序无法找到“mpi_XXX”函数,如何解决?
最近在CentOS 7上编译流体力学计算软件cfl3d,编译过程中提示未找到函数错误: ``` #采用ifort编译 ifort -DDIST_MPI -DDBLE_PRECSN -DP3D_SINGLE -DLINUX -DINTEL -DNOREDIRECT -DDBLE_PRECSN -z muldefs -xHost -tracebace -fpe0 -o cfl3d_mpi *.o ae_corr.o: In function 'ae_corr_': ae_corr.F:(.text+0x4d1): undefined reference to 'mpi_send_' ...#下面还有好多相似的报错,都是缺少'mpi_XXX_'函数 ``` 系统内安装了Intel Parallel Studio XE Cluster Edition 2019,软件安装没有问题。 通过之前在网上搜索相关问题,给出的答案都是找到链接函数库并加在编译语句后,但是我并不能找到Parallel Studio在我系统内安装的mpi函数库目录(或者说我不知道这个库目录是什么)。 曾经尝试在Parallel Studio安装路径搜索“mpisend”只找到了一个名为“MPI_Send.3.gz”的文件,所在目录为“.../intel/compilers_and_libraries_2019.4.243/linux/mpi/man/man3” 求问这个目录与所报错误是否有关系
C语言MPI 出现 segmentation fault: 11
Primary job terminated normally, but 1 process returned a non-zero exit code. Per user-direction, the job has been aborted. mpirun noticed that process rank 0 with PID 0 on node dyn-118-139-43-116 exited on signal 11 (Segmentation fault: 11). C语言运行MPI的时候出现的,不知道怎么解决,求大神帮忙瞅瞅。 这个是什么情况呢? ``` #include <stdio.h> #include <stdlib.h> #include <math.h> #include <time.h> #include <string.h> #include "mpi.h" int main(int argc, char** argv) { int iX,iY; const int iXmax = 8000; // default const int iYmax = 8000; // default double Cx, Cy; const double CxMin = -2.5; const double CxMax = 1.5; const double CyMin = -2.0; const double CyMax = 2.0; double PixelWidth = (CxMax - CxMin)/iXmax; double PixelHeight = (CyMax - CyMin)/iYmax; const int MaxColorComponentValue = 255; static unsigned char color[3]; double Zx, Zy; double Zx2, Zy2; /* Zx2 = Zx*Zx; Zy2 = Zy*Zy */ int Iteration; const int IterationMax = 2000; // default const double EscapeRadius = 400; double ER2 = EscapeRadius * EscapeRadius; unsigned char color_array[iYmax*iXmax*3]; //8000*8000*3 array clock_t start, end; double cpu_time_used; int my_rank, processors, rows_per_procs,tag=0; MPI_Status stat; MPI_Init(&argc, &argv); MPI_Comm_rank(MPI_COMM_WORLD, &my_rank); MPI_Comm_size(MPI_COMM_WORLD, &processors); if(my_rank == 0){ printf("Computing Mandelbrot Set. Please wait...\n"); } start = clock(); if(my_rank == 0){ rows_per_procs = iYmax / processors; MPI_Bcast(& rows_per_procs, 1, MPI_INT, 0, MPI_COMM_WORLD); } else { int counter = 0; for(iY = rows_per_procs*my_rank; iY < rows_per_procs*(my_rank+1); iY++) { Cy = CyMin + (iY * PixelHeight); if (fabs(Cy) < (PixelHeight / 2)) { Cy = 0.0; /* Main antenna */ } for(iX = 0; iX < iXmax; iX++) { Cx = CxMin + (iX * PixelWidth); /* initial value of orbit = critical point Z= 0 */ Zx = 0.0; Zy = 0.0; Zx2 = Zx * Zx; Zy2 = Zy * Zy; /* */ for(Iteration = 0; Iteration < IterationMax && ((Zx2 + Zy2) < ER2); Iteration++) { Zy = (2 * Zx * Zy) + Cy; Zx = Zx2 - Zy2 + Cx; Zx2 = Zx * Zx; Zy2 = Zy * Zy; }; /* compute pixel color (24 bit = 3 bytes) */ if (Iteration == IterationMax) { // Point within the set. Mark it as black color[0] = 0; color[1] = 0; color[2] = 0; } else { // Point outside the set. Mark it as white double c = 3*log((double)Iteration)/log((double)(IterationMax) - 1.0); if (c < 1) { color[0] = 0; color[1] = 0; color[2] = 255*c; } else if (c < 2) { color[0] = 0; color[1] = 255*(c-1); color[2] = 255; } else { color[0] = 255*(c-2); color[1] = 255; color[2] = 255; } } color_array[counter*iX*3] = color[0]; color_array[counter*iX*3+1] = color[1]; color_array[counter*iX*3+2] = color[2]; } counter++; } } if(my_rank == 0) { //unsigned char color_array[iYmax*iXmax*3]; //8000*8000*3 array FILE * fp; char *filename = "Mandelbrot.ppm"; char *comment = "# "; /* comment should start with # */ fp = fopen(filename, "wb"); /* b - binary mode */ fprintf(fp,"P6\n %s\n %d\n %d\n %d\n", comment, iXmax, iYmax, MaxColorComponentValue); printf("File: %s successfully opened for writing.\n", filename); for(int i = 0; i<processors;i++) { MPI_Recv(color_array, rows_per_procs*iXmax*3,MPI_UNSIGNED_CHAR, i, tag, MPI_COMM_WORLD, &stat); } fwrite(color_array, 1, sizeof(color_array), fp); fclose(fp); printf("Completed Computing Mandelbrot Set.\n"); printf("File: %s successfully closed.\n", filename); } else { MPI_Send(color_array, sizeof(color_array),MPI_UNSIGNED_CHAR, 0, tag, MPI_COMM_WORLD); } // Get the clock current time again // Subtract end from start to get the CPU time used. end = clock(); cpu_time_used = ((double)(end - start)) / CLOCKS_PER_SEC; printf("%dMandelbrot computational process time: %lf\n", my_rank,cpu_time_used); MPI_Finalize(); return 0; } ```
关于mpi集群的,在mpirun -np 6 -f nodes ./cpi 出现这样的错误,图示
![图片说明](https://img-ask.csdn.net/upload/201911/03/1572781618_61027.jpg)
MPI子域通信问题,划分的子域不能模拟MPI_Bcast发送和接收数据
原题如下: 设计 MPI 程序模拟广播( MPI_Bcast)操作:将每个 MPI 进程按照所在节点名称建立 node 通信子域分组;再将各个 node 子通信域的 0 号进程再次组成一个名为 head 的通信域; 在进行广播时,首先由 root 进程将消息在 head 通信子域内广播,然后,再由 head 子域内各 进程在其所在的 node 子域内进行广播 按照题目要求,我把所有的进程划分成了两个子域,一个是head,另一个是在每个node作为一个子域。 head部分划分代码如下: MPI_Group cpworld; MPI_Comm_group(MPI_COMM_WORLD,&cpworld); int ranks[10]={0,1,2,3,4,5,6,7,8,9}; MPI_Group head_comm; MPI_Group_incl(cpworld,10,ranks,&head_comm); MPI_Comm head; MPI_Comm_create(MPI_COMM_WORLD,head_comm,&head); 只是划分的话运行也是正常的,但是当尝试在head内利用MPI_Send和MPI_Recv进行模拟MPI_Bcast发送数据就会出错。发送代码如下: int head_rank=-1,head_size=-1; if(MPI_COMM_NULL!=head){ MPI_Comm_rank(head,&head_rank); MPI_Comm_size(head,&head_size); } //first time to send message int i; char message[100]; MPI_Status status; if(head_rank==0){ strcpy(message,"Hello,the message is from process root!\n"); for(i=0;i<head_size;i++) MPI_Send(message,strlen(message),MPI_CHAR,i,1,head); } else{ MPI_Recv(message,100,MPI_CHAR,0,1,head,&status); printf("In communicators recieve message: %s",message); } 错误提示如下: ![图片说明](https://img-ask.csdn.net/upload/201612/02/1480685751_883416.jpg) 尝试了查了很多资料也没彻底搞明白,请问这是什么原因?该怎么解决啊? 期待答复~
linux安装octopus:configure: error: could not find required LAPACK library如何排错
我在linux安装octopus时,在configure这一步系统提示找不到required LAPACK library。但是我的LAPACK确实安装了,路径也是正确的,我自己可以在路径下找到。为什么系统找不到呢? 我的configure命令: ``` $ ./configure --prefix=/home/hp/softwares/octopus-8.4 --with-lapack=/home/hp/softwares/octopus-8.4/lapack-3.8.0--with-libxc-prefix=/home/hp/softwares/lib--with-gsl-prefix=/home/hp/softwares/lib--with-fftw-prefix=/home/hp/softwares/lib--with-blas=/home/hp/softwares/lib--enable-mpi=/home/hp/softwares/lib ``` config.log文件里的错误部分: ``` configure:11535: gfortran -o conftest -I /usr/include -pipe -O3 -funroll-loops -ffast-math -ffree-line-length-none conftest.f90 -lxc >&5 configure:11535: $? = 0 configure:11542: result: yes (-I /usr/include -lxc) configure:11553: checking whether libxc version is 3.0 configure:11555: result: no configure:11558: checking whether libxc version is >= 4.0 configure:11560: result: no configure:11576: checking whether libxc has support for hybrid meta-GGAs (>= v 2.1) configure:11588: gfortran -o conftest -I /usr/include -pipe -O3 -funroll-loops -ffast-math -ffree-line-length-none conftest.f90 -lxc >&5 configure:11588: $? = 0 configure:11594: result: yes configure:11641: checking for sgemm in basedir/lib/libblas.a configure:11648: gfortran -o conftest -pipe -O3 -funroll-loops -ffast-math -ffree-line-length-none conftest.f90 basedir/lib/libblas.a >&5 configure:11648: $? = 0 configure:11657: result: yes (basedir/lib/libblas.a) configure:12187: checking whether zdotc works configure:12230: gfortran -o conftest -pipe -O3 -funroll-loops -ffast-math -ffree-line-length-none conftest.f90 basedir/lib/libblas.a >&5 configure:12230: $? = 0 configure:12230: ./conftest configure:12230: $? = 0 configure:12248: result: yes configure:12294: checking for cheev in /home/hp/softwares/octopus-8.4/lapack-3.8.0--with-libxc-prefix=/home/hp/softwares/lib--with-gsl-prefix=/home/hp/softwares/lib--with-fftw-prefix=/home/hp/softwares/lib--with-blas=/home/hp/softwares/lib--enable-mpi=/home/hp/softwares/lib configure:12301: gfortran -o conftest -pipe -O3 -funroll-loops -ffast-math -ffree-line-length-none conftest.f90 /home/hp/softwares/octopus-8.4/lapack-3.8.0--with-libxc-prefix=/home/hp/softwares/lib--with-gsl-prefix=/home/hp/softwares/lib--with-fftw-prefix=/home/hp/softwares/lib--with-blas=/home/hp/softwares/lib--enable-mpi=/home/hp/softwares/lib basedir/lib/libblas.a >&5 gfortran: error: /home/hp/softwares/octopus-8.4/lapack-3.8.0--with-libxc-prefix=/home/hp/softwares/lib--with-gsl-prefix=/home/hp/softwares/lib--with-fftw-prefix=/home/hp/softwares/lib--with-blas=/home/hp/softwares/lib--enable-mpi=/home/hp/softwares/lib: No such file or directory configure:12301: $? = 1 configure: failed program was: | program main | call cheev | end configure:12307: result: no configure:12318: checking for cheev in -lmkl_lapack configure:12330: gfortran -o conftest -pipe -O3 -funroll-loops -ffast-math -ffree-line-length-none conftest.f90 -lmkl_lapack /home/hp/softwares/octopus-8.4/lapack-3.8.0--with-libxc-prefix=/home/hp/softwares/lib--with-gsl-prefix=/home/hp/softwares/lib--with-fftw-prefix=/home/hp/softwares/lib--with-blas=/home/hp/softwares/lib--enable-mpi=/home/hp/softwares/lib basedir/lib/libblas.a >&5 gfortran: error: /home/hp/softwares/octopus-8.4/lapack-3.8.0--with-libxc-prefix=/home/hp/softwares/lib--with-gsl-prefix=/home/hp/softwares/lib--with-fftw-prefix=/home/hp/softwares/lib--with-blas=/home/hp/softwares/lib--enable-mpi=/home/hp/softwares/lib: No such file or directory configure:12330: $? = 1 configure: failed program was: | program main | call cheev | end configure:12340: result: no configure:12318: checking for cheev in -llapack configure:12330: gfortran -o conftest -pipe -O3 -funroll-loops -ffast-math -ffree-line-length-none conftest.f90 -llapack /home/hp/softwares/octopus-8.4/lapack-3.8.0--with-libxc-prefix=/home/hp/softwares/lib--with-gsl-prefix=/home/hp/softwares/lib--with-fftw-prefix=/home/hp/softwares/lib--with-blas=/home/hp/softwares/lib--enable-mpi=/home/hp/softwares/lib basedir/lib/libblas.a >&5 gfortran: error: /home/hp/softwares/octopus-8.4/lapack-3.8.0--with-libxc-prefix=/home/hp/softwares/lib--with-gsl-prefix=/home/hp/softwares/lib--with-fftw-prefix=/home/hp/softwares/lib--with-blas=/home/hp/softwares/lib--enable-mpi=/home/hp/softwares/lib: No such file or directory configure:12330: $? = 1 configure: failed program was: | program main | call cheev | end configure:12340: result: no configure:12318: checking for cheev in -llapack_rs6k configure:12330: gfortran -o conftest -pipe -O3 -funroll-loops -ffast-math -ffree-line-length-none conftest.f90 -llapack_rs6k /home/hp/softwares/octopus-8.4/lapack-3.8.0--with-libxc-prefix=/home/hp/softwares/lib--with-gsl-prefix=/home/hp/softwares/lib--with-fftw-prefix=/home/hp/softwares/lib--with-blas=/home/hp/softwares/lib--enable-mpi=/home/hp/softwares/lib basedir/lib/libblas.a >&5 gfortran: error: /home/hp/softwares/octopus-8.4/lapack-3.8.0--with-libxc-prefix=/home/hp/softwares/lib--with-gsl-prefix=/home/hp/softwares/lib--with-fftw-prefix=/home/hp/softwares/lib--with-blas=/home/hp/softwares/lib--enable-mpi=/home/hp/softwares/lib: No such file or directory configure:12330: $? = 1 configure: failed program was: | program main | call cheev | end configure:12340: result: no configure:12318: checking for cheev in -lacml configure:12330: gfortran -o conftest -pipe -O3 -funroll-loops -ffast-math -ffree-line-length-none conftest.f90 -lacml /home/hp/softwares/octopus-8.4/lapack-3.8.0--with-libxc-prefix=/home/hp/softwares/lib--with-gsl-prefix=/home/hp/softwares/lib--with-fftw-prefix=/home/hp/softwares/lib--with-blas=/home/hp/softwares/lib--enable-mpi=/home/hp/softwares/lib basedir/lib/libblas.a >&5 gfortran: error: /home/hp/softwares/octopus-8.4/lapack-3.8.0--with-libxc-prefix=/home/hp/softwares/lib--with-gsl-prefix=/home/hp/softwares/lib--with-fftw-prefix=/home/hp/softwares/lib--with-blas=/home/hp/softwares/lib--enable-mpi=/home/hp/softwares/lib: No such file or directory configure:12330: $? = 1 configure: failed program was: | program main | call cheev | end configure:12340: result: no configure:12358: error: could not find required LAPACK library ``` 万分感谢!
相见恨晚的超实用网站
相见恨晚的超实用网站 持续更新中。。。
字节跳动视频编解码面经
三四月份投了字节跳动的实习(图形图像岗位),然后hr打电话过来问了一下会不会opengl,c++,shador,当时只会一点c++,其他两个都不会,也就直接被拒了。 七月初内推了字节跳动的提前批,因为内推没有具体的岗位,hr又打电话问要不要考虑一下图形图像岗,我说实习投过这个岗位不合适,不会opengl和shador,然后hr就说秋招更看重基础。我当时想着能进去就不错了,管他哪个岗呢,就同意了面试...
Java学习的正确打开方式
在博主认为,对于入门级学习java的最佳学习方法莫过于视频+博客+书籍+总结,前三者博主将淋漓尽致地挥毫于这篇博客文章中,至于总结在于个人,实际上越到后面你会发现学习的最好方式就是阅读参考官方文档其次就是国内的书籍,博客次之,这又是一个层次了,这里暂时不提后面再谈。博主将为各位入门java保驾护航,各位只管冲鸭!!!上天是公平的,只要不辜负时间,时间自然不会辜负你。 何谓学习?博主所理解的学习,它是一个过程,是一个不断累积、不断沉淀、不断总结、善于传达自己的个人见解以及乐于分享的过程。
程序员必须掌握的核心算法有哪些?
由于我之前一直强调数据结构以及算法学习的重要性,所以就有一些读者经常问我,数据结构与算法应该要学习到哪个程度呢?,说实话,这个问题我不知道要怎么回答你,主要取决于你想学习到哪些程度,不过针对这个问题,我稍微总结一下我学过的算法知识点,以及我觉得值得学习的算法。这些算法与数据结构的学习大多数是零散的,并没有一本把他们全部覆盖的书籍。下面是我觉得值得学习的一些算法以及数据结构,当然,我也会整理一些看过...
大学四年自学走来,这些私藏的实用工具/学习网站我贡献出来了
大学四年,看课本是不可能一直看课本的了,对于学习,特别是自学,善于搜索网上的一些资源来辅助,还是非常有必要的,下面我就把这几年私藏的各种资源,网站贡献出来给你们。主要有:电子书搜索、实用工具、在线视频学习网站、非视频学习网站、软件下载、面试/求职必备网站。 注意:文中提到的所有资源,文末我都给你整理好了,你们只管拿去,如果觉得不错,转发、分享就是最大的支持了。 一、电子书搜索 对于大部分程序员...
linux系列之常用运维命令整理笔录
本博客记录工作中需要的linux运维命令,大学时候开始接触linux,会一些基本操作,可是都没有整理起来,加上是做开发,不做运维,有些命令忘记了,所以现在整理成博客,当然vi,文件操作等就不介绍了,慢慢积累一些其它拓展的命令,博客不定时更新 free -m 其中:m表示兆,也可以用g,注意都要小写 Men:表示物理内存统计 total:表示物理内存总数(total=used+free) use...
比特币原理详解
一、什么是比特币 比特币是一种电子货币,是一种基于密码学的货币,在2008年11月1日由中本聪发表比特币白皮书,文中提出了一种去中心化的电子记账系统,我们平时的电子现金是银行来记账,因为银行的背后是国家信用。去中心化电子记账系统是参与者共同记账。比特币可以防止主权危机、信用风险。其好处不多做赘述,这一层面介绍的文章很多,本文主要从更深层的技术原理角度进行介绍。 二、问题引入 假设现有4个人...
python学习方法总结(内附python全套学习资料)
不要再问我python好不好学了 我之前做过半年少儿编程老师,一个小学四年级的小孩子都能在我的教学下独立完成python游戏,植物大战僵尸简单版,如果要肯花时间,接下来的网络开发也不是问题,人工智能也可以学个调包也没啥问题。。。。。所以python真的是想学就一定能学会的!!!! --------------------华丽的分割线-------------------------------- ...
python 简易微信实现(注册登录+数据库存储+聊天+GUI+文件传输)
socket+tkinter详解+简易微信实现 历经多天的努力,查阅了许多大佬的博客后终于实现了一个简易的微信O(∩_∩)O~~ 简易数据库的实现 使用pands+CSV实现数据库框架搭建 import socket import threading from pandas import * import pymysql import csv # 创建DataFrame对象 # 存储用户数据的表(...
程序员接私活怎样防止做完了不给钱?
首先跟大家说明一点,我们做 IT 类的外包开发,是非标品开发,所以很有可能在开发过程中会有这样那样的需求修改,而这种需求修改很容易造成扯皮,进而影响到费用支付,甚至出现做完了项目收不到钱的情况。 那么,怎么保证自己的薪酬安全呢? 我们在开工前,一定要做好一些证据方面的准备(也就是“讨薪”的理论依据),这其中最重要的就是需求文档和验收标准。一定要让需求方提供这两个文档资料作为开发的基础。之后开发...
网页实现一个简单的音乐播放器(大佬别看。(⊙﹏⊙))
今天闲着无事,就想写点东西。然后听了下歌,就打算写个播放器。 于是乎用h5 audio的加上js简单的播放器完工了。 演示地点演示 html代码如下` music 这个年纪 七月的风 音乐 ` 然后就是css`*{ margin: 0; padding: 0; text-decoration: none; list-...
Python十大装B语法
Python 是一种代表简单思想的语言,其语法相对简单,很容易上手。不过,如果就此小视 Python 语法的精妙和深邃,那就大错特错了。本文精心筛选了最能展现 Python 语法之精妙的十个知识点,并附上详细的实例代码。如能在实战中融会贯通、灵活使用,必将使代码更为精炼、高效,同时也会极大提升代码B格,使之看上去更老练,读起来更优雅。
数据库优化 - SQL优化
以实际SQL入手,带你一步一步走上SQL优化之路!
2019年11月中国大陆编程语言排行榜
2019年11月2日,我统计了某招聘网站,获得有效程序员招聘数据9万条。针对招聘信息,提取编程语言关键字,并统计如下: 编程语言比例 rank pl_ percentage 1 java 33.62% 2 cpp 16.42% 3 c_sharp 12.82% 4 javascript 12.31% 5 python 7.93% 6 go 7.25% 7 p...
通俗易懂地给女朋友讲:线程池的内部原理
餐盘在灯光的照耀下格外晶莹洁白,女朋友拿起红酒杯轻轻地抿了一小口,对我说:“经常听你说线程池,到底线程池到底是个什么原理?”
《奇巧淫技》系列-python!!每天早上八点自动发送天气预报邮件到QQ邮箱
将代码部署服务器,每日早上定时获取到天气数据,并发送到邮箱。 也可以说是一个小型人工智障。 知识可以运用在不同地方,不一定非是天气预报。
经典算法(5)杨辉三角
杨辉三角 是经典算法,这篇博客对它的算法思想进行了讲解,并有完整的代码实现。
Python实例大全(基于Python3.7.4)
博客说明: 这是自己写的有关python语言的一篇综合博客。 只作为知识广度和编程技巧学习,不过于追究学习深度,点到即止、会用即可。 主要是基础语句,如三大控制语句(顺序、分支、循环),随机数的生成,数据类型的区分和使用; 也会涉及常用的算法和数据结构,以及面试题相关经验; 主体部分是针对python的数据挖掘和数据分析,主要先攻爬虫方向:正则表达式匹配,常用数据清洗办法,scrapy及其他爬虫框架,数据存储方式及其实现; 最后还会粗略涉及人工智能领域,玩转大数据与云计算、进行相关的预测和分析。
腾讯算法面试题:64匹马8个跑道需要多少轮才能选出最快的四匹?
昨天,有网友私信我,说去阿里面试,彻底的被打击到了。问了为什么网上大量使用ThreadLocal的源码都会加上private static?他被难住了,因为他从来都没有考虑过这个问题。无独有偶,今天笔者又发现有网友吐槽了一道腾讯的面试题,我们一起来看看。 腾讯算法面试题:64匹马8个跑道需要多少轮才能选出最快的四匹? 在互联网职场论坛,一名程序员发帖求助到。二面腾讯,其中一个算法题:64匹...
面试官:你连RESTful都不知道我怎么敢要你?
干货,2019 RESTful最贱实践
刷了几千道算法题,这些我私藏的刷题网站都在这里了!
遥想当年,机缘巧合入了 ACM 的坑,周边巨擘林立,从此过上了"天天被虐似死狗"的生活… 然而我是谁,我可是死狗中的战斗鸡,智力不够那刷题来凑,开始了夜以继日哼哧哼哧刷题的日子,从此"读题与提交齐飞, AC 与 WA 一色 ",我惊喜的发现被题虐既刺激又有快感,那一刻我泪流满面。这么好的事儿作为一个正直的人绝不能自己独享,经过激烈的颅内斗争,我决定把我私藏的十几个 T 的,阿不,十几个刷题网...
为啥国人偏爱Mybatis,而老外喜欢Hibernate/JPA呢?
关于SQL和ORM的争论,永远都不会终止,我也一直在思考这个问题。昨天又跟群里的小伙伴进行了一番讨论,感触还是有一些,于是就有了今天这篇文。 声明:本文不会下关于Mybatis和JPA两个持久层框架哪个更好这样的结论。只是摆事实,讲道理,所以,请各位看官勿喷。 一、事件起因 关于Mybatis和JPA孰优孰劣的问题,争论已经很多年了。一直也没有结论,毕竟每个人的喜好和习惯是大不相同的。我也看...
SQL-小白最佳入门sql查询一
不要偷偷的查询我的个人资料,即使你再喜欢我,也不要这样,真的不好;
JavaScript 为什么能活到现在?
作者 | 司徒正美 责编 |郭芮 出品 | CSDN(ID:CSDNnews) JavaScript能发展到现在的程度已经经历不少的坎坷,早产带来的某些缺陷是永久性的,因此浏览器才有禁用JavaScript的选项。甚至在jQuery时代有人问出这样的问题,jQuery与JavaScript哪个快?在Babel.js出来之前,发明一门全新的语言代码代替JavaScript...
项目中的if else太多了,该怎么重构?
介绍 最近跟着公司的大佬开发了一款IM系统,类似QQ和微信哈,就是聊天软件。我们有一部分业务逻辑是这样的 if (msgType = "文本") { // dosomething } else if(msgType = "图片") { // doshomething } else if(msgType = "视频") { // doshomething } else { // doshom...
Nginx 原理和架构
Nginx 是一个免费的,开源的,高性能的 HTTP 服务器和反向代理,以及 IMAP / POP3 代理服务器。Nginx 以其高性能,稳定性,丰富的功能,简单的配置和低资源消耗而闻名。 Nginx 的整体架构 Nginx 里有一个 master 进程和多个 worker 进程。master 进程并不处理网络请求,主要负责调度工作进程:加载配置、启动工作进程及非停升级。worker 进程负责处...
致 Python 初学者
欢迎来到“Python进阶”专栏!来到这里的每一位同学,应该大致上学习了很多 Python 的基础知识,正在努力成长的过程中。在此期间,一定遇到了很多的困惑,对未来的学习方向感到迷茫。我非常理解你们所面临的处境。我从2007年开始接触 python 这门编程语言,从2009年开始单一使用 python 应对所有的开发工作,直至今天。回顾自己的学习过程,也曾经遇到过无数的困难,也曾经迷茫过、困惑过。开办这个专栏,正是为了帮助像我当年一样困惑的 Python 初学者走出困境、快速成长。希望我的经验能真正帮到你
Python 编程开发 实用经验和技巧
Python是一门很灵活的语言,也有很多实用的方法,有时候实现一个功能可以用多种方法实现,我这里总结了一些常用的方法和技巧,包括小数保留指定位小数、判断变量的数据类型、类方法@classmethod、制表符中文对齐、遍历字典、datetime.timedelta的使用等,会持续更新......
吐血推荐珍藏的Visual Studio Code插件
作为一名Java工程师,由于工作需要,最近一个月一直在写NodeJS,这种经历可以说是一部辛酸史了。好在有神器Visual Studio Code陪伴,让我的这段经历没有更加困难。眼看这段经历要告一段落了,今天就来给大家分享一下我常用的一些VSC的插件。 VSC的插件安装方法很简单,只需要点击左侧最下方的插件栏选项,然后就可以搜索你想要的插件了。 下面我们进入正题 Material Theme ...
“狗屁不通文章生成器”登顶GitHub热榜,分分钟写出万字形式主义大作
一、垃圾文字生成器介绍 最近在浏览GitHub的时候,发现了这样一个骨骼清奇的雷人项目,而且热度还特别高。 项目中文名:狗屁不通文章生成器 项目英文名:BullshitGenerator 根据作者的介绍,他是偶尔需要一些中文文字用于GUI开发时测试文本渲染,因此开发了这个废话生成器。但由于生成的废话实在是太过富于哲理,所以最近已经被小伙伴们给玩坏了。 他的文风可能是这样的: 你发现,...
相关热词 c#委托 逆变与协变 c#新建一个项目 c#获取dll文件路径 c#子窗体调用主窗体事件 c# 拷贝目录 c# 调用cef 网页填表c#源代码 c#部署端口监听项目、 c#接口中的属性使用方法 c# 昨天
立即提问