UVA 11427 Expect the Expected 概率与期望

本文探讨了在特定条件下,玩家玩纸牌游戏的平均天数。通过建立数学模型,计算了玩家在不同胜利比例下停止游戏的平均次数。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

题目链接:http://uva.onlinejudge.org/index.php?option=com_onlinejudge&Itemid=8&page=show_problem&problem=2422

题目大意:每天晚上你都玩纸牌,如果第一次就赢了,就高高兴兴的去睡觉,如果输了就继续玩。假如每盘游戏你获胜的概率都为p,每盘游戏输赢独立。如果当晚你获胜的局数的比例严格大于p时才停止,而且每天晚上最多只能玩n局,如果获胜比例一直不超过p的话,以后就再也不玩纸牌了。问在平均情况下,你会玩多少个晚上纸牌。

解题思路:这题和毛球的题比较相似,每天晚上的情况相互独立,先研究单独一天的情况,只玩一晚上纸牌,垂头丧气的睡觉的概率Q.

设d[i][j]表示前i局中每局结束后的获胜比例不超过p ,且前i局一共获胜  j 局的概率.

则根据全概率公式 有j/i<=p时,d[i][j]=d[i-1][j]*(1-p)+d[i-1][j-1]*p;其它情况d[i][j]=0;边界为d[0][0]=1,d[0][1]=0;

则Q=d[n][0]+d[n][1]+d[n][2]+...d[n][n].

法1:

用数学期望的定义计算游戏总天数X的数学期望。

X=1 的概率为Q

X=2的概率为Q*(1-Q)

X=3的概率为Q*(1-Q)^2

。。。

X=k的概率为Q*(1-Q)^(k-1)

故EX=Q+2*Q*(1-Q)+...+k*Q*(1-Q)^(k-1)+...                          ①

令s=EX/Q=1+2*(1-Q)+3*(1-Q)^2+...

则  (1-Q)*s=(1-Q)+2(1-Q)^2+...                                          ②

①-②得EX=Qs=1+(1-Q)+(1-Q)^2+...=1/Q;

法2:

设数学期望为e,情况分两类:

第一天晚上垂头丧气,概率为Q,期望为1;

第一天晚上高高兴兴,概率为(1-Q),期望为e+1;

得方程:e=Q*1+(e+1)*(1-Q); 得e=1/Q;

代码如下:

#include<stdio.h>
#include<algorithm>
#include<cstring>
using namespace std;
int main()
{
    int T,a,b,n,cas=1;
    scanf("%d",&T);
    while(T--)
    {
        scanf("%d/%d%d",&a,&b,&n);
        double p=(double)(a*1.0/b*1.0);
        double d[105][105];
        memset(d,0,sizeof(d));
        d[0][0]=1.0;d[0][1]=0.0;
        for(int i=1;i<=n;i++)
            for(int j=0;j*b<=i*a;j++)
            {
                d[i][j]=d[i-1][j]*(1-p);
                if(j) d[i][j]+=d[i-1][j-1]*p;
            }
        double Q=0.0;
        for(int j=0;j*b<=a*n;j++)
            Q+=d[n][j];
        printf("Case #%d: %d\n",cas++,(int)(1/Q));
    }
    return 0;
}



### LlamaIndex 多模态 RAG 实现 LlamaIndex 支持多种数据类型的接入与处理,这使得它成为构建多模态检索增强生成(RAG)系统的理想选择[^1]。为了实现这一目标,LlamaIndex 结合了不同种类的数据连接器、索引机制以及强大的查询引擎。 #### 数据连接器支持多样化输入源 对于多模态数据的支持始于数据收集阶段。LlamaIndex 的数据连接器可以从多个异构资源中提取信息,包括但不限于APIs、PDF文档、SQL数据库等。这意味着无论是文本还是多媒体文件中的内容都可以被纳入到后续的分析流程之中。 #### 统一化的中间表示形式 一旦获取到了原始资料之后,下一步就是创建统一而高效的内部表达方式——即所谓的“中间表示”。这种转换不仅简化了下游任务的操作难度,同时也提高了整个系统的性能表现。尤其当面对复杂场景下的混合型数据集时,良好的设计尤为关键。 #### 查询引擎助力跨媒体理解能力 借助于内置的强大搜索引擎组件,用户可以通过自然语言提问的形式轻松获得所需答案;而对于更复杂的交互需求,则提供了专门定制版聊天机器人服务作为补充选项之一。更重要的是,在这里实现了真正的语义级关联匹配逻辑,从而让计算机具备了一定程度上的‘认知’功能去理解和回应人类意图背后所蕴含的意义所在。 #### 应用实例展示 考虑到实际应用场景的需求多样性,下面给出一段Python代码示例来说明如何利用LlamaIndex搭建一个多模态RAG系统: ```python from llama_index import GPTSimpleVectorIndex, SimpleDirectoryReader, LLMPredictor, PromptHelper, ServiceContext from langchain.llms.base import BaseLLM import os def create_multi_modal_rag_system(): documents = SimpleDirectoryReader(input_dir='./data').load_data() llm_predictor = LLMPredictor(llm=BaseLLM()) # 假设已经定义好了具体的大型预训练模型 service_context = ServiceContext.from_defaults( chunk_size_limit=None, prompt_helper=PromptHelper(max_input_size=-1), llm_predictor=llm_predictor ) index = GPTSimpleVectorIndex(documents, service_context=service_context) query_engine = index.as_query_engine(similarity_top_k=2) response = query_engine.query("请描述一下图片里的人物表情特征") print(response) ``` 此段脚本展示了从加载本地目录下各类格式文件开始直到最终完成一次基于相似度排序后的top-k条目返回全过程。值得注意的是,“query”方法接收字符串参数代表使用者想要询问的内容,而在后台则会自动调用相应的解析模块并结合先前准备好的知识库来进行推理计算得出结论。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值