题目
问题描述
给定L,R。统计[L,R]区间内的所有数在二进制下包含的“1”的个数之和。
如5的二进制为101,包含2个“1”。
输入格式
第一行包含2个数L,R
输出格式
一个数S,表示[L,R]区间内的所有数在二进制下包含的“1”的个数之和。
样例输入
2 3
样例输出
3
数据规模和约定
L<=R<=100000;
问题分析
这是个很简单的题目,统计某个数字二进制形式中1的个数,这里有个技巧,设该数为x,则x&(x-1)就会消掉x二进制数的一个1。
代码实现(Java)
主函数用于输入和输出,定义getBitNum函数用于处理数据,完整程序如下:
import java.util.*;
public class Main {
public static void main(String[] args) {
int L,R;
Scanner scanner = new Scanner(System.in);
L = scanner.nextInt();
R = scanner.nextInt();
if(L>100000||R>100000||L>R)
return;
int sum=0;
/*统计区间内的数值*/
for (int i = L; i <= R; i++) {
sum += getBitNum(i);
}
/*打印输出*/
System.out.println(sum);
}
private static int getBitNum(int num) {
int cnt=0;
while (num != 0) {
/*核心算法块*/
num = num & (num-1);
cnt++;
}
return cnt;
}
}
算法表现
得分:100
CPU使用:109ms
内存使用:22.11MB
来源:CSDN
作者:周小枫
链接:https://blog.csdn.net/x1825048925/article/details/104276674