如何将ASCII字符转换为ASCII int值
How to convert an ASCII char to its ASCII int value?
我想将char转换为ASCII int值。
我可以用所有可能的值填充一个数组并与之进行比较,但对我来说似乎不对
char mychar = "k"
public int ASCItranslate(char c)
return c
ASCItranslate(k) // >> Should return 107 as that is the ASCII value of 'k'.
关键是atoi()
在这里不起作用,因为它只适用于可读数字。
它对空格(ASCII 32(没有任何作用。
只需执行以下操作:
int(k)
您只需要在这里直接将char转换为int,不需要函数调用。
char
已经是一个数字。它不需要任何转换,因为ASCII只是从数字到字符表示的映射。
如果愿意,您可以直接将其用作数字,也可以强制转换。
在C++中,您也可以使用static_cast<int>(k)
来显式转换。
这样做:-
char mychar = 'k';
//and then
int k = (int)mychar;
从ASCII字符转换为ASCII值:
char c='A';
cout<<int(c);
从ASCII值转换为的ASCII字符:
int a=67;
cout<<char(a);
#include <iostream>
char mychar = 'k';
int ASCIItranslate(char ch) {
return ch;
}
int main() {
std::cout << ASCIItranslate(mychar);
return 0;
}
这是修复了各种语法错误的原始代码。假设你使用的是一个使用ASCII的编译器(现在几乎每一个都是ASCII(,它就可以工作了。你为什么认为这是错误的?
相关文章:
- C++,在int数组中输入字符串或字符会输出0,而不是ascii或error
- 将char类型指定给int以打印相应的ASCII字符
- 如何修复数组赋值从 ascii 值到 int
- 将int转换为char(ASCII值)
- c 中的字符串和int的condanation.从ASCII转换为十六进制
- C 将ASCII INT转换为char
- ASCII to int to ASCII (ATMEGA 2560)
- 为什么不能将 int(表示 ASCII 字符)转换为 std::字符串,而没有大括号环绕在 int 周围?
- 如何在C++中打印int的ASCII值
- 当您将不在 ASCII 图表上的字符转换为在 C++ 中键入 int 时会发生什么?
- 在 c# 中将 int 添加到字符以将其 ascii 值向上移动(就像在 c++ 中一样)
- 提升精神继承的字符串属性填充<int> ASCII 字符中的向量
- 将int转换为ASCII的String
- 将 MFC 的 CString 转换为 ASCII 和 UNICODE 的 int
- 如何将 int 变量转换为 ASCII 单词
- 不使用ASCII将int转换为char
- int或char enum为int,而不是ASCII
- Vector将int存储为ascii码
- 如何将ASCII字符转换为ASCII int值
- 如何将ASCII int转换为字符串