参考:https://blog.csdn.net/weixin_45525272/article/details/114055623
sync_with_stdio 函数是一个“是否兼容stdio”的开关,C++为了兼容C,保证程序在使用了 std::printf 和 std::cout 的时候不发生混乱,将输出流绑到了一起。
tie 函数可以将两个 stream 绑定,空参数的话返回当前的输出流指针。
在默认的情况下 cin 绑定的是 cout ,每次执行
<<
操作符的时候都要调用 flush ,这样会增加 IO 负担。可以通过 tie(0)(0表示NULL)来解除 cin 与 cout 的绑定,进一步加快执行效率。
在信息学竞赛里,经常出现数据集超大造成 cin TLE(Time Limit Exceed,时间限制超出)的情况。
这只是C++为了兼容而采取的保守措施。可以在 IO 之前将 stdio 解除绑定。
这样做了之后要注意不要同时混用 cout 和 printf 之类。
ios::sync_with_stdio(false); cin.tie(0); cout.tie(0); // std::ios::sync_with_stdio(false); // std::cin.tie(0),cout.tie(0);
原来 cin ,cout 之所以效率低,是因为先把要输出的东西存入缓冲区,再输出,导致效率降低,而这段代码可以来打消 iostream 的输入 输出缓存,可以节省许多时间,使效率与scanf与printf相差无几。
这两句加上就可以提高C++代码输入输出执行效率使得和C相差无几。
参考:https://blog.csdn.net/yujuan_mao/article/details/8119529
在竞赛中,遇到大数据时,需要更快地读取文件,从而加快程序运行速度。
C++ 所使用的 cin 似乎并不擅长于此。
一个进阶的方法是把数据一下子读进来,然后再转化字符串,这种方法传说中很不错,但具体如何从没试过,因此今天就索性把能想到的所有的读数据的方式都测试了一边,结果是惊人的。
竞赛中读数据的情况最多的莫过于读一大堆整数了。
我生成一千万个随机数,存储于 data.txt 中,一共55MB。
然后我写了个程序用于计算运行时间,代码如下:
#include <ctime> int main() { int start = clock(); //DO SOMETHING printf("%.3lf\n",double(clock()-start)/CLOCKS_PER_SEC); }
最简单的方法就算写一个循环scanf了,代码如下:
const int MAXN = 10000000; int numbers[MAXN]; void scanf_read() { freopen("data.txt","r",stdin); for (int i=0;i<MAXN;i++) scanf("%d",&numbers[i]); }
可是效率如何呢?在我的电脑Linux平台上测试结果为2.01秒。
接下来测试 cin ,代码如下
const int MAXN = 10000000; int numbers[MAXN]; void cin_read() { freopen("data.txt","r",stdin); for (int i=0;i<MAXN;i++) std::cin >> numbers[i]; }
cin 仅仅用了6.38秒,比想象的要快。
cin慢是有原因的,其实默认的时候,cin与stdin总是保持同步的,也就是说这两种方法可以混用,而不必担心文件指针混乱,同时cout和stdout也一样,两者混用不会输出顺序错乱。正因为这个兼容性的特性,导致cin有许多额外的开销。
如何禁用这个特性呢?只需一个语句:
std::ios::sync_with_stdio(false);
这样就可以取消 cin 与 stdin 的同步了。程序如下:
const int MAXN = 10000000; int numbers[MAXN]; void cin_read_nosync() { freopen("data.txt","r",stdin); std::ios::sync_with_stdio(false); for (int i=0;i<MAXN;i++) std::cin >> numbers[i]; }
取消同步后,经测试运行时间减到了2.05秒,与scanf效率不大。
所以,使用了此行代码后可以放心使用 cin 和 cout 了。
接下来测试一下读入整个文件再处理的方法,首先要写一个字符串转化为数组的函数,代码如下:
const int MAXS = 60*1024*1024; char buf[MAXS]; void analyse(char *buf,int len = MAXS) { int i; numbers[i=0]=0; for (char *p=buf;*p && p-buf<len;p++) if (*p == ' ') numbers[++i]=0; else numbers[i] = numbers[i] * 10 + *p - '0'; }
把整个文件读入一个字符串最常用的方法是用fread,代码如下:
const int MAXN = 10000000; const int MAXS = 60*1024*1024; int numbers[MAXN]; char buf[MAXS]; void fread_analyse() { freopen("data.txt","rb",stdin); int len = fread(buf,1,MAXS,stdin); buf[len] = '\0'; analyse(buf,len); }
测试读取时间仅用0.29秒,效率提高了几乎10倍!
我记得fread是封装过的read,如果直接使用read,是不是更快呢?测试代码如下:
const int MAXN = 10000000; const int MAXS = 60*1024*1024; int numbers[MAXN]; char buf[MAXS]; void read_analyse() { int fd = open("data.txt",O_RDONLY); int len = read(fd,buf,MAXS); buf[len] = '\0'; analyse(buf,len); }