溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務(wù)條款》

QString類型轉(zhuǎn)換

發(fā)布時間:2020-06-30 17:14:28 來源:網(wǎng)絡(luò) 閱讀:452 作者:WZM3558862 欄目:開發(fā)技術(shù)

把QString轉(zhuǎn)換為 double類型

方法1.不安全的轉(zhuǎn)換方式

QString str="123.45";

double val=str.toDouble(); //val=123.45


方法2.很適合科學(xué)計數(shù)法形式轉(zhuǎn)換
bool ok;
double d;

d=QString("1234.56e-02").toDouble(&ok); //ok=true;d;12.3456.


把QString轉(zhuǎn)換為float形

方法1.

QString str="123.45";

float d=str.toFloat(); //d=123.45

方法2.

QString str="R2D2";

bool ok;

float d=str.toFloat(&ok); //轉(zhuǎn)換是被時返回0.0,ok=false;


把QString形轉(zhuǎn)換為×××
1.轉(zhuǎn)換為十進(jìn)制×××

注意:基數(shù)默認(rèn)為10。當(dāng)基數(shù)為10時,并且基數(shù)必須在2到36之間。

如果基數(shù)為0,若字符串是以0x開頭的就會轉(zhuǎn)換為16進(jìn)制,若以0開頭就轉(zhuǎn)換為八進(jìn)制,否則就轉(zhuǎn)換為十進(jìn)制。

Qstring str="FF";
bool ok;
int dec=str.toInt(&ok,10); //dec=255 ; ok=rue

int hex =str.toInt(&ok,16); //hex=255;ok=true;


長×××轉(zhuǎn)換為Qstring形
long a =63;
QString str=QString::number(a,16); //str="3f";

QString str=QString::number(a,16).toUpper(); //str="3F";


Qstring 轉(zhuǎn)換char*問題
方法一:
QString qstr("hello,word");
const char * p = qstr.toLocal8Bit().data();
方法二:
const char *p = qstr.toStdString().data();  轉(zhuǎn)換過來的是常量


把當(dāng)前時間轉(zhuǎn)化為QString
public QDateTime qdate = QDateTime.currentDateTime();

datetime = qdate.toString("yyyy年MM月dd日ddddhh:mm:ss");

toString()函數(shù)中的格式控制:

日期:QDate

QString類型轉(zhuǎn)換

時間:QTime

QString類型轉(zhuǎn)換


如果不是QTime和QDate類比如說:通過TCP/IP接收到的char unsigned char 類等如何轉(zhuǎn)換為QString類


[cpp] view plain copy print?QString類型轉(zhuǎn)換QString類型轉(zhuǎn)換

  1. QString TimeString( DWORD dwTime)  

  2. {  

  3.     char cTime[50] = {0};  

  4.     memset(cTime,0,50);  

  5.     strftime(cTime,32,"%Y-%m-%d %H:%M:%S",localtime(&time_t(dwTime)));  

  6.     return QString(cTime);  

  7. }  


向AI問一下細(xì)節(jié)

免責(zé)聲明:本站發(fā)布的內(nèi)容(圖片、視頻和文字)以原創(chuàng)、轉(zhuǎn)載和分享為主,文章觀點不代表本網(wǎng)站立場,如果涉及侵權(quán)請聯(lián)系站長郵箱:is@yisu.com進(jìn)行舉報,并提供相關(guān)證據(jù),一經(jīng)查實,將立刻刪除涉嫌侵權(quán)內(nèi)容。

AI