2023-2024學(xué)年江西省宜春市豐城中學(xué)高三(上)開學(xué)數(shù)學(xué)試卷
發(fā)布:2024/8/9 8:0:9
一、單項(xiàng)選擇題:本大題共8小題,每小題5分,共40分.在每小題給出的四個(gè)選項(xiàng)中,只有一項(xiàng)是符合題目要求的.
-
1.命題“?x>0,x2+x+1>0”的否定為( ?。?/h2>
組卷:65引用:7難度:0.8 -
2.已知集合
,A={y|y=log264-x2},則A∩B=( )B={x|x-2x≤12,x∈Z}組卷:25引用:2難度:0.7 -
3.下列選項(xiàng)中表示同一函數(shù)的是( ?。?/h2>
組卷:103引用:14難度:0.8 -
4.已知二次函數(shù)f(x)滿足f(2)=-1,f(1-x)=f(x),且f(x)的最大值是8,則此二次函數(shù)的解析式為f(x)=( ?。?/h2>
組卷:181引用:4難度:0.8 -
5.已知函數(shù)f(x)是定義在R上的偶函數(shù),在區(qū)間[0,+∞)上遞減,且f(1)=0,則不等式f(log2x)<0的解集為( ?。?/h2>
組卷:239引用:2難度:0.8 -
6.若函數(shù)f(x)=
的值域?yàn)镽,則m的取值范圍是( ?。?/h2>-log2(3-x)m,x<1x2-6x+m,x≥1組卷:33引用:3難度:0.6 -
7.“ChatGPT”以其極高的智能化引起世界關(guān)注.深度學(xué)習(xí)是人工智能的一種具有代表性的實(shí)現(xiàn)方法,它是以神經(jīng)網(wǎng)絡(luò)為出發(fā)點(diǎn)的.在神經(jīng)網(wǎng)絡(luò)優(yōu)化中,指數(shù)衰減的學(xué)習(xí)率模型為
,其中L表示每一輪優(yōu)化時(shí)使用的學(xué)習(xí)率,L0表示初始學(xué)習(xí)率,D表示衰減系數(shù),G表示訓(xùn)練迭代輪數(shù),G0表示衰減速度.已知某個(gè)指數(shù)衰減的學(xué)習(xí)率模型的初始學(xué)習(xí)率為0.5,衰減速度為18,且當(dāng)訓(xùn)練迭代輪數(shù)為18時(shí),學(xué)習(xí)率為0.4,則學(xué)習(xí)率衰減到0.2以下(不含0.2)所需的訓(xùn)練迭代輪數(shù)至少為(參考數(shù)據(jù):lg2≈0.3)( )L=L0DGG0組卷:328引用:9難度:0.5
四、解答題(共70分.解答應(yīng)寫出文字說明、證明過程或演算步驟)
-
21.設(shè)函數(shù)
,(a>0且a≠1)是定義域?yàn)镽的奇函數(shù),且y=f(x)的圖象過點(diǎn)f(x)=a2x-(k-1)ax.(1,32)
(1)求k和a的值;
(2)是否存在實(shí)數(shù)m,使函數(shù)g(x)=22x+2-2x-mf(x)在區(qū)間[1,log23]上的最大值為1.若存在,求出m的值;若不存在,請(qǐng)說明理由組卷:27引用:5難度:0.5 -
22.俄國數(shù)學(xué)家切比雪夫是研究直線逼近函數(shù)理論的先驅(qū).對(duì)定義在非空集合I上的函數(shù)f(x),以及函數(shù)g(x)=kx+b(k,b∈R),切比雪夫?qū)⒑瘮?shù)y=|f(x)-g(x)|,x∈I的最大值稱為函數(shù)f(x)與g(x)的“偏差”.
(1)若f(x)=x2(x∈[0,1]),g(x)=-x-1,求函數(shù)f(x)與g(x)的“偏差”;
(2)若f(x)=x2(x∈[-1,1]),g(x)=x+b,求實(shí)數(shù)b,使得函數(shù)f(x)與g(x)的“偏差”取得最小值,并求出“偏差”的最小值.組卷:204引用:4難度:0.3