溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點(diǎn)擊 登錄注冊 即表示同意《億速云用戶服務(wù)條款》

C語言之預(yù)處理命令的示例分析

發(fā)布時(shí)間:2021-04-02 11:24:47 來源:億速云 閱讀:123 作者:小新 欄目:開發(fā)技術(shù)

這篇文章主要介紹C語言之預(yù)處理命令的示例分析,文中介紹的非常詳細(xì),具有一定的參考價(jià)值,感興趣的小伙伴們一定要看完!

c提供的預(yù)處理功能有:

  • 宏定義

  • 文件包含

  • 條件編譯

為了與其她c語句區(qū)分,命令經(jīng)常以符號(hào)“#”開頭。

宏定義

#define 標(biāo)識(shí)符 字符串

可以避免反復(fù)輸入字符串,后面不加;宏定義在默認(rèn)時(shí)的有效范圍是全部。也可以用#undef終止宏定義區(qū)域。

不含參數(shù)

宏展開帶入程序

含參數(shù)

#include<stdio.h>
#define PI 3.1415
#define S(r) PI*r*r
int main()
{
	int a;
	float area;
	scanf("%d",&a);
	area=S(a);
	printf("半徑為%d的圓面積為%f",a,area);
}

這里強(qiáng)調(diào)實(shí)參a代替形參r,當(dāng)實(shí)參含有若干時(shí),注意括號(hào)的優(yōu)先級(jí).

帶參數(shù)的宏定義與函數(shù)調(diào)用的關(guān)系:

1.函數(shù)調(diào)用時(shí),是先算出實(shí)參表達(dá)式的值,然后代入形參。

2.函數(shù)的實(shí)參形參都需要定義類型,而宏定義不需要。

文件包含處理

即一個(gè)源文件可以將另外一個(gè)源文件的全部代碼內(nèi)容包括起來。常見的#include命令用來實(shí)現(xiàn)該操作。

當(dāng)你往往要使用一些固定的數(shù)據(jù)時(shí),可以將其寫到一個(gè)文件里,寫其他文件時(shí)直接引用。

說明:使用文件包含處理的前提是創(chuàng)建一個(gè)項(xiàng)目,使得他們都在一個(gè)項(xiàng)目里才能互相使用。

C語言之預(yù)處理命令的示例分析

C語言之預(yù)處理命令的示例分析

條件編譯

你如果講一個(gè)函數(shù)聲明2次,就會(huì)報(bào)錯(cuò)。所以把函數(shù)聲明寫在頭文件中后,如果引用了2次這個(gè)頭文件,也會(huì)報(bào)錯(cuò)。#ifndef #define 宏就是用來避免頭文件重復(fù)包含的

形式:#if-程序1 -#else-程序2-#endif

功能為:如果#if后的條件表達(dá)式為真,則程序1被選中,否則程序2被選中。

#include<stdio.h>
#define RESULT 0//定義 RESULT 為 0
int main (void)
{
 #if !RESULT //或者 0==RESULT
  printf("It's False!\n");
 #else
  printf("It's True!\n");
 #endif //標(biāo)志結(jié)束#if
  return 0;
}

2.#ifndef-標(biāo)識(shí)符-#define-標(biāo)識(shí)符 替換列表-#endif

功能為:一般用于檢測程序中是否已經(jīng)定義了名字為某標(biāo)識(shí)符的宏,如果沒有定義該宏,則定義該宏,并選中從 #define 開始到 #endif 之間的程序段;如果已定義,則不再重復(fù)定義該符號(hào),且相應(yīng)程序段不被選中。

以上是“C語言之預(yù)處理命令的示例分析”這篇文章的所有內(nèi)容,感謝各位的閱讀!希望分享的內(nèi)容對(duì)大家有幫助,更多相關(guān)知識(shí),歡迎關(guān)注億速云行業(yè)資訊頻道!

向AI問一下細(xì)節(jié)

免責(zé)聲明:本站發(fā)布的內(nèi)容(圖片、視頻和文字)以原創(chuàng)、轉(zhuǎn)載和分享為主,文章觀點(diǎn)不代表本網(wǎng)站立場,如果涉及侵權(quán)請(qǐng)聯(lián)系站長郵箱:is@yisu.com進(jìn)行舉報(bào),并提供相關(guān)證據(jù),一經(jīng)查實(shí),將立刻刪除涉嫌侵權(quán)內(nèi)容。

AI