去他的程序员逻辑

本文通过实例探讨了产品设计中过于复杂的逻辑分类思维如何成为‘让产品变轻’的最大障碍,提出简单才是最伟大的能力。以百度首页为例,展示了如何遵循用户需求而非逻辑分类来优化用户体验。

以前我当产品经理的时候,经常因为“逻辑”跟工程师吵得一塌糊涂。


  那个时候的工程师们都喜欢树型结构。虽然今天已经销声匿迹了,但他们仍然喜欢把“逻辑”挂在嘴边。他们会在产品上花很多心血,很多功能都舍不得扔掉,却不知道用户能接受的其实只是最简单的点。

  我讲个例子。有一天,太太跟我说家里电脑太暗了,我一看是因为出差前我调成了最暗,回来后忘记设置了。遇到这种情况你的第一反应会是什么?我首先想到的是找设置,于是点到控面板,打开有很多分类,在硬件里没找到,再去显示器设置里面找还是不行。最后谁知道在哪?在个性化里面!我找了三天才找到,那两天忍着眼要瞎的感觉,屏幕非常暗,文字基本看不清。

  当时我就想:微软看着我那么暗地用电脑,为什么不提示我一次呢?一个屏幕亮度设置需要这么复杂吗?

  我想说,简单是世界上最了不起的能力了。这个世界经济体系很复杂,马克思写了一千多页《资本论》,里面用了一个最简单的词——“剩余价值”囊括了所有; 市场变化很复杂,包括各种各样的机构,最后亚当斯密用了一句话说明——“看不见的手”;相对论很复杂,最后就是一个公式,虽然我们都不知道什么意思。这些无一例外地都使用了一种极简的表达,你会发现在这个世界上真正能走下去的东西都是“大道至简”,而不是靠复杂取胜。

  到今天,过去那种繁复的计算机思维仍在隐秘地发挥作用,虽未被人们觉察,但它已经成为“让产品变轻”的最大绊脚石。

  问题究竟出在哪儿?

  大家都知道,一些 IT 行业巨头如微软和谷歌都是工程师文化。工程师文化的本质特点是什么?就是特别喜欢强调逻辑性。

  我记得,以前学校开设类似图书管理和信息分类的专业课,大部分的内容都是关于“逻辑分类”。例如大家要学习 windows 的分类方式,一定要在开始菜单放程序,我的电脑里放文件,桌面上放快捷方式,全部分好类后,里面还有各种各样的分类。


  但是,本质上用户的脑海里没有任何逻辑,用户脑海里有什么?只有用还是不用,常用还是不常用。所以你看苹果的整个逻辑就是这样,没有回收站,没有很深的目录。从来不会说这一排应该是打电话的,不该放音乐。换作一般工程师肯定抓狂,这不合逻辑啊,怎么能这样呢?程序、文档、视频不是应该归类吗?后来发现苹果的第一页既有日历,也有短信,还有摄像。用工程师的观点看,整个都是杂乱无章,毫无美感。


  当然,如果你受过专业训练,没问题,可以按照逻辑分类,但老百姓没这个概念,他只知道他要用什么,把常用的放在第一页,不常用的就拖过去。需要去分类吗?根本不需要!所以,“逻辑分类”是我们脑海里一个根深蒂固的东西。


  后来为了跟身边的同事说明这个问题,我还一直给他们讲百度首页的例子。百度是一个搜索网站,但是搜索栏上面放的是什么?新闻、网页、贴吧、音乐、图片等等。你想进贴吧的时候根本不必使用搜索功能,你只需在搜索框里输入想要看的贴吧内容,一点贴吧就直接进去了。


  如果按照“工程师逻辑”,网页旁边怎么可能是贴吧呢?应该是垂直搜索才对。如果垂直再分类的话,又是什么衣食住行,琴棋书画,生老病死,基本上就是这些“逻辑分类”。我推测百度是把用户最需要的放出来,用户上来想找什么,就把谁放上去,没有“逻辑分类”。


  关键在于:最早接触计算机的这一群人都是我们这种所谓学过程序的人,“逻辑分类”的思维根深蒂固,大家从接触这一行开始就觉得,一定要显得有逻辑,但事实上它并不重要。


  我们要知道,互联网的整个逻辑在今天已经变了!


转自:http://bbs.9ria.com/thread-261482-1-7.html

Python 中集成 Ollama 可以通过使用 `ollama` 官方提供的 Python 客户端库来实现。Ollama 是一个本地运行的大型语言模型(LLM)工具,它支持多种模型,如 Llama 2、Mistral 等,并且可以通过简单的 APIPython 应用程序集成。 ### 安装 Ollama Python 库 首先,需要确保你已经在本地系统上安装了 Ollama。你可以从 [Ollama 官方网站](https://ollama.com/)下载并安装适用于你操作系统的版本。 接下来,安装 Python 客户端库。Ollama 提供了一个官方的 Python 包,可以通过 `pip` 安装: ```bash pip install ollama ``` ### 使用 Ollama Python 库 安装完成后,可以使用 `ollama` 模块来调用 OllamaAPI。以下是一个简单的示例,展示如何使用 Ollama 的 `generate` 方法来生成文本: ```python import ollama # 生成文本 response = ollama.generate(model='llama3', prompt='为什么天空是蓝色的?') # 打印响应 print(response['response']) ``` 在这个例子中,`model` 参数指定了要使用的模型(例如 `llama3`),`prompt` 参数是用户输入的提示词。Ollama 会根据提示词生成相应的文本,并返回一个包含 `response` 字段的字典。 ### 获取模型列表 如果你想查看当前可用的模型,可以使用以下代码: ```python import ollama # 获取模型列表 models = ollama.list() # 打印模型列表 for model in models['models']: print(model['name']) ``` ### 模型对话(Chat) Ollama 还支持更复杂的对话模式,允许你在多轮对话中保持上下文。以下是一个使用 `chat` 方法的示例: ```python import ollama # 开始对话 response = ollama.chat( model='llama3', messages=[ {'role': 'user', 'content': '你好,你能帮我做什么?'}, {'role': 'assistant', 'content': '你好!我可以帮助你回答问题、提供建议,甚至进行简单的创作。有什么我可以帮你的吗?'}, {'role': 'user', 'content': '你能告诉我关于机器学习的基础知识吗?'} ] ) # 打印响应 print(response['message']['content']) ``` 在这个例子中,`messages` 参数是一个包含多个对话记录的列表,每个记录都有一个 `role` 和 `content` 字段。Ollama 会根据这些对话记录生成相应的回复。 ### 错误处理 在实际应用中,建议添加错误处理逻辑,以应对可能出现的网络问题或模型加载失败等情况: ```python import ollama try: response = ollama.generate(model='llama3', prompt='为什么天空是蓝色的?') print(response['response']) except Exception as e: print(f"发生错误: {e}") ``` ### 相关问题
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值