string控制字符:将十六进制数字赋给字符串
std::string control characters: assigning a hex number to a string
转义字符的行为依赖于编译器还是什么?
std::string pattern = "xDDAF5742"; // or do pattern("xDDAF5742");
std::cout << pattern << " " << pattern.size() << "n";
在我的系统上,这输出B 1
('B' == 0x42),但我认为它应该在字符串中放入4个字符。
你想要这个:
std::string pattern = "xDDxAFx57x42";
否则,它将尝试将整个十六进制代码读取为一个字符,然后将其截断为仅剩最后8位。
相关文章:
- 从char阵列中提取十六进制数字
- 如何在 c++ 中将十六进制数字转换为字符
- 使用字符串格式限制十六进制数字的数量
- 从输入中找到连续十六进制数字的最大数量
- 字符串十六进制到指针获取值
- 将十六进制数字从无符号字符转换为字符串
- 从 bin 文件 -c++ 中读取十六进制数字为每个字符 2 位数字
- 重载输出运算符给出十六进制数字而不是字符串
- 将十六进制数的 char[] 转换为对应于 ASCII 表中十六进制数字的字母的 char[] 并反转
- 从包含十六进制数字的std::string或QString创建std::bitset或QBitArray
- "first-chance exception..."消息中的十六进制数字是什么意思?
- 如何从字符串十六进制中获取十进制
- 一次打印 2 个字节的十六进制数字
- 连接两个十六进制数字
- 分析64位十六进制数字
- 在一行代码中输入2个十六进制数字和一个字符串
- 十六进制数字系统中的指针值
- 将std::字符串数字转换为十六进制数字
- string控制字符:将十六进制数字赋给字符串
- c++编译器什么时候开始考虑在字符串转义中使用两个以上的十六进制数字?