社交数据参与分析:以 StackExchange 为例
1. 社交数据的重要性与分析目标
社交网络和网站彻底改变了互联网。如今,大多数上网的人都会参与到某个社交网络中,像 Facebook、Twitter、Pinterest、GitHub、StackOverflow 等众多社交网站。这些社交网络不仅是人们建立和保持联系的重要方式,也是关于人们关系和活动的重要数据来源。
分析这些数据具有多方面的重要性。广告商和营销人员希望从数据中挖掘尽可能多的信息。而对于运营社交网络的人来说,分析数据有助于了解哪些方面运作良好,哪些方面存在问题。他们需要不断思考如何更好地吸引用户,让社交网络对用户更具吸引力、更有趣或更有用。
我们将从 StackExchange(http://stackexchange.com)网站获取开放数据进行分析,该网站包含 StackOverflow(http://stackoverflow.com/)等众多问答网站。我们会采用多种方式进行分析,旨在了解人们在这些网站上的互动和内容生成方式,以及什么样的回答才是好回答。具体涵盖以下主题:
- 理解可进行的分析
- 获取数据
- 发现参与模式
- 比较提问者和回答者
- 发现随时间变化的参与模式
- 找到获得点赞的回答
- 自动标记问题
2. 项目设置
在开始之前,我们需要设置项目。这里使用 Leiningen 2(http://leiningen.org/)和 Stuart Sierra 的 reloaded 项目模板(https://github.com/stuartsierra/reloaded)。通过运行以下代码创建名为 social - so 的项目:
$ lein new reloaded social - so
项目还需要更多依赖,以下是本章的 project.clj 文件:
(defproject social - so "0.1.0 - SNAPSHOT"
:dependencies [[org.clojure/clojure "1.5.1"]
[org.clojure/data.xml "0.0.7"]
[org.codehaus.jsr166 - mirror/jsr166y "1.7.0"]
[org.clojure/data.json "0.2.4"]
[cc.mallet/mallet "2.0.7"]
[org.jsoup/jsoup "1.7.3"]]
:profiles {:dev {:dependencies
[[org.clojure/tools.namespace "0.2.4"]]
:source - paths ["dev"]}}
:jvm - opts ["-Xmx2048m"])
这里的亮点在于,我们将使用 org.clojure/data.xml 读取 XML 文件,org.clojure/data.json 读取 JSON,org.jsoup/jsoup 清理 HTML。如果使用 Java 6,需要 jsr166y 来提供与 reducers 库的并发支持。同时,使用 cc.mallet/mallet 处理一些朴素贝叶斯分类。
3. 理解社交网络数据
社交网络大致可分为两类:
3.1 社交导向型社交网络
这类网络包括常见的 Facebook(http://facebook.com)、LinkedIn(http://linkedin.com)、Twitter(http://twitter.com/)、新浪微博(http://weibo.com)等。它们的重点是让人们相互连接、建立关系并发布关于自己的更新。
3.2 知识共享导向型社交网络
像 StackExchange(http://stackexchange.com)家族的社交网络,如 StackOverflow(http://stackoverflow.com)、Quora(https://www.quora.com/)等都属于此类。这些网络专注于让人们交流信息和知识,通常比网络论坛或维基更具结构性,更关注问答。
显然,这两类网络的互动方式、特点和产生的数据都截然不同,因此需要采用不同的分析方法。
4. 理解基于知识的社交网络
在基于知识的社交网络中,人们聚集在一起共享信息。常见的形式是问答论坛,如 StackExchange 网络的网站、Quora(https://www.quora.com/)、雅虎问答(http://answers.yahoo.com/)等。
一般来说,在这类社交网络中,一部分用户提出问题,另一部分用户进行回答。通常会有某种站内激励机制,如徽章、积分等,这鼓励人们使问题和回答紧扣主题,积极回答问题,并维护社区氛围。社区的管理方式多样,可能有管理员,也可能是自我管理,或者两者结合。
以 StackOverflow 的首页为例,我们可以看到该社交网络的基本元素:
- 右上角有一个“Ask Question”按钮用于提问。这个按钮不像在 Facebook 或 Twitter 上的发布框那么显眼,因为提问者通常有足够的动力去找到它并点击进入另一个页面提问。
- 还有一个最近发布问题的列表,可以根据感兴趣的标签进行筛选。用户可以通过这个列表找到自己有能力回答的问题,或者自己感兴趣想学习的问题。
从首页设计可以看出,网站的主要互动操作都很容易访问,而且其设计让更具挑战性的回答问题操作变得相对容易。我们可以推测,大多数用户可能只是来提一两个问题,之后就不再参与。这部分用户群体可能相当庞大,StackExchange 可能关心如何确定这些用户是谁,以及如何激励他们回答问题。同时,回答问题的用户中也可能存在类似情况,可能只有少数用户回答了大部分问题,StackExchange 可能希望所有用户都能更均衡地做出贡献,而不仅仅依赖少数活跃用户。
这其实体现了社交网络的一个普遍原则——80/20 规则,即大约 80% 的内容是由 20% 的用户创建的。这也被称为帕累托原则,更普遍的表述是 80% 的效果来自 20% 的原因。虽然在不同社交网络中,具体比例可能有所不同,但这个观察结果总体上非常可靠。我们将在后续分析中具体探讨 80/20 规则如何适用于 StackOverflow 数据。
5. 获取数据
我们将重点关注基于知识的社交网络,特别是 StackExchange 网站。StackExchange 会定期公开其网站的数据转储(http://blog.stackexchange.com/category/cc - wiki - dump/),这为处理社交网络网站数据提供了很好的测试平台。
数据转储可通过互联网档案馆(https://archive.org/)获取,当前网页地址为 https://archive.org/details/stackexchange。可以使用 BitTorrent 客户端(http://www.bittorrent.com/),如 μTorrent(http://www.utorrent.com/)下载整个转储文件。不过,我们只对 StackOverflow 的帖子和评论感兴趣,所以也可以只下载这两个存档。这两个存档加起来约 6GB,使用 torrent 下载可能是最合理的选择。
存档文件采用 7z 格式压缩。Windows 用户可以从 7 - zip 网站(http://www.7 - zip.org/)获取提取工具,该网站的下载页面也提供了一些适用于 Mac OS X 和 Linux 的非官方二进制文件链接。这两个平台也有命令行二进制工具,例如 Homebrew(http://brew.sh/)有一个名为 p7zip 的配方。
使用以下代码将数据提取到项目目录下名为 data 的子目录中:
cd data
7z x ~/torrents/stackexchange/stackoverflow.com - Posts.7z
5.1 数据量
这部分数据的原始存档约 6GB,虽然不算小,但也不是 PB 级别的。压缩文件接近 5GB,解压后为 23GB,数据量相当可观。
5.2 数据格式
所有文件都采用 XML 格式。“Posts”文件包含问题和答案。数据格式相对简单,完整描述可参考 README.txt 文件。以下是第一个条目示例:
<row Id="4"
PostTypeId="1"
AcceptedAnswerId="7"
CreationDate="2008 - 07 - 31T21:42:52.667"
Score="251"
ViewCount="15207"
Body="<p>I want to use a track - bar to change a form's
opacity.</p>

<p>This is my code
:</p>

<pre><code>decimal trans =
trackBar1.Value / 5000;
this.Opacity = trans;

</code></pre>

<p>When I try
to build it, I get this error:</p>


<blockquote>
 <p>Cannot implicitly convert
type 'decimal' to 'double'.</p>
<
/blockquote>

<p>I tried making
<strong>trans</strong> to <strong>
double</strong>, but then the control doesn't work.
This code has worked fine for me in VB.NET in the past.
</p>
"
OwnerUserId="8"
LastEditorUserId="2648239"
LastEditorDisplayName="Rich B"
LastEditDate="2014 - 01 - 03T02:42:54.963"
LastActivityDate="2014 - 01 - 03T02:42:54.963"
Title="When setting a form's opacity should I use a decimal
or double?"
Tags="<c#><winforms><forms><type -
conversion><opacity>"
AnswerCount="13"
CommentCount="25"
FavoriteCount="23"
CommunityOwnedDate="2012 - 10 - 31T16:42:47.213" />
从 README.txt 可知,这个帖子代表一个问题(PostTypeId 字段为 1),我们可以看到其内容、标签、接受的答案以及大量的元数据。
第三个条目是该问题的一个接受答案示例:
<row Id="7"
PostTypeId="2"
ParentId="4"
CreationDate="2008 - 07 - 31T22:17:57.883"
Score="193"
Body="<p>An explicit cast to double isn't
necessary.</p>

<pre><code>double
trans = (double)trackBar1.Value / 5000.0;
<
/code></pre>

<p>Identifying the
constant as <code>5000.0</code> (or as
<code>5000d</code>) is sufficient:<
/p>

<pre><code>double trans =
trackBar1.Value / 5000.0;
double trans = trackBar1
.Value / 5000d;
</code></pre>
"
OwnerUserId="9"
LastEditorUserId="967315"
LastEditDate="2012 - 10 - 14T11:50:16.703"
LastActivityDate="2012 - 10 - 14T11:50:16.703"
CommentCount="0" />
对于答案(PostTypeId 字段为 2),我们可以获取其所属问题、内容文本和得分。所属问题的标识表明哪个答案被接受。在这两种情况下,都有 OwnerUserId,这有助于我们了解人们如何与网站以及彼此进行互动。
文本字段属性支持丰富内容(如 Body 和 Title),通过将 HTML 编码到字段中来处理。我们需要对这些进行转义并可能去除标签,虽然这不是问题,但需要留意。
6. 定义和加载数据
我们可以梳理出本章需要使用的一些数据,并将其放入 src/social_so/data.clj 文件中。使用两种记录类型:CountRank 类型用于保存原始计数及其在频率列表中的排名,UserInfo 类型用于存储用户以及他们发布的不同类型帖子的频率和排名。代码如下:
(defrecord CountRank [count rank])
(defrecord UserInfo [user post q a])
post、q 和 a 字段分别跟踪所有帖子、问题帖子和答案帖子的频率和排名。这些记录结构有助于我们开始理解数据和参与模式。
为了加载数据,我们创建一个新文件 src/social_so/xml.clj,并给出以下命名空间声明:
(ns social - so.xml
(:require [clojure.data.xml :as xml]
[clojure.java.io :as io]
[clojure.string :as str]
[social - so.data :as d]
[social - so.utils :as u])
(:import [org.jsoup Jsoup]
[org.jsoup.safety Whitelist]))
我们将使用这个命名空间中的函数来读取 XML 文件并构建包含数据的记录。
最基本的操作是从 XML 文件中读取帖子元素,代码如下:
(defn read - posts [stream] (:content (xml/parse stream)))
我们还需要从每个元素中获取一些数据,以下是获取用户标识符和帖子类型代码的一些 getter 函数:
(defn get - user [el]
(let [{:keys [attrs]} el]
(or (u/->long (:OwnerUserId attrs))
(u/to - lower (:OwnerDisplayName attrs)))))
(defn get - post - type [el]
(u/->long (:PostTypeId (:attrs el))))
在这个代码片段中,el 表示正在处理的 XML 元素,我们使用自定义函数 social - so.utils/to - lower 对字符串进行小写处理,以防止传入空值。
从 XML 文件加载数据分两个阶段进行:首先获取原始频率,然后以多种方式对数据进行排序并分配排名。
6.1 计数频率
我们通过遍历 XML 文件中的帖子来计数频率。维护一个用户索引,每个用户对应一个 UserInfo 记录。首次找到某个用户时,为其创建一个新的 UserInfo 对象,后续更新该记录的计数。
以下是具体实现的函数:
(defn update - user - info [user - id post - el user - info]
(let [incrs {:question [1 0], :answer [0 1]}
[q - inc a - inc] (incrs (get - post - type post - el))]
(cond
(nil? q - inc) user - info
(nil? user - info) (d/->UserInfo user - id 1 q - inc a - inc)
:else
(assoc user - info
:post (inc (:post user - info))
:q (+ (:q user - info) q - inc)
:a (+ (:a user - info) a - inc)))))
(defn update - user - index [user - index post - el]
(let [user (get - user post - el)]
(->> user
(get user - index)
(update - user - info user post - el)
(assoc user - index user))))
(defn load - user - infos [filename]
(with - open [s (io/input - stream filename)]
(->> s
read - posts
(reduce update - user - index {})
vals
(remove nil?)
doall)))
6.2 排序和排名
目前,我们在 UserInfo 记录的字段中存储原始频率。我们希望将频率移动到 CountRank 记录中,并同时存储排名。具体步骤如下:
1. 使用 rank - on 函数找到排名。该函数根据 UserInfo 记录的某个属性(:post、:q 或 :a)进行排序,然后将每个实例与排名关联起来。代码如下:
(defn rank - on [user - property coll]
(->> coll
(sort - by user - property)
reverse
(map vector (range))))
- update - rank 函数将 rank - on 得到的排名 - 用户对与相应属性关联起来:
(defn update - rank [user - property rank - info]
(let [[rank user - info] rank - info]
(assoc user - info user - property
(d/->CountRank (get user - info user - property)
rank))))
- add - rank - data 函数协调这个过程,对所有用户调用上述函数。add - all - ranks 函数对每个用户执行此操作:
(defn add - rank - data [user - property users]
(map #(update - rank user - property %)
(rank - on user - property users)))
(defn add - all - ranks [users]
(->> users
(add - rank - data :post)
(add - rank - data :q)
(add - rank - data :a)))
- 我们可以将读取 XML 文件、计数帖子与对用户进行排序和排名结合起来:
(defn load - xml [filename]
(add - all - ranks (load - user - infos filename)))
通过以下代码可以简单地加载 XML 文件并分配排名:
user=> (def users (x/load - xml
"data/stackoverflow.com - Posts"))
user=> (count users)
1594450
user=> (first users)
{:user 22656,
:post {:count 28166, :rank 0},
:q {:count 29, :rank 37889},
:a {:count 28137, :rank 0}}
现在我们有了进行第一轮分析所需的信息。
7. 发现参与模式
在加载了一些数据后,我们来看看能从中学到什么。在开始之前,我们可以编写一个函数来生成报告,展示每种类型帖子中最活跃的用户。代码如下:
(defn print - top - rank [col - name key - fn n users]
(let [fmt "%4s %6s %14s\n"
sort - fn #(:rank (key - fn %))]
(printf fmt "Rank" "User" col - name)
(printf fmt "----" "------" "--------------")
(doseq [user (take n (sort - by sort - fn users))]
(let [freq (key - fn user)]
(printf fmt (:rank freq) (:user user) (:count freq))))))
这个函数可以创建一个表格,列出每种帖子类型的前 10 名(左右)用户。以下是“All Posts”的示例表格:
| Rank | User | All Posts |
| ---- | ---- | ---------- |
| 0 | 22656 | 28166 |
| 1 | 29407 | 20342 |
| 2 | 157882 | 15444 |
| 3 | 17034 | 13287 |
| 4 | 34397 | 13209 |
| 5 | 23354 | 12312 |
| 6 | 115145 | 11806 |
| 7 | 20862 | 10455 |
| 8 | 57695 | 9730 |
| 9 | 19068 | 9560 |
从这个表格可以看出,一些用户非常活跃。排名第一的用户比排名第二的用户多发布了近 8000 个帖子,而排名第二的用户也非常活跃。前 1000 名用户的帖子计数图显示,活跃度下降得很快,少数顶级用户主导了大部分交流。
我们还可以进一步细分,提出问题的用户和回答问题的用户的行为可能不同。后续我们将深入比较这两类用户的参与模式。
8. 比较提问者和回答者
8.1 数据准备
前面我们已经完成了数据的加载和处理,得到了包含用户信息的
users
数据。现在我们可以基于这些数据来比较提问者和回答者的不同。
8.2 分析方法
我们可以从多个维度来比较提问者和回答者,例如参与频率、活跃度的稳定性等。
参与频率比较
为了比较提问者和回答者的参与频率,我们可以分别提取提问和回答的频率数据,然后进行对比。以下是一个简单的示例代码,用于提取提问和回答的频率信息:
(defn extract-question-frequencies [users]
(map #(:q %) users))
(defn extract-answer-frequencies [users]
(map #(:a %) users))
通过调用这两个函数,我们可以得到提问频率和回答频率的列表:
(def question-frequencies (extract-question-frequencies users))
(def answer-frequencies (extract-answer-frequencies users))
我们可以对这两个列表进行统计分析,例如计算平均值、中位数、标准差等,以了解提问者和回答者的参与频率的分布情况。以下是计算平均值的示例代码:
(defn calculate-average [freqs]
(/ (apply + freqs) (count freqs)))
(def question-average (calculate-average question-frequencies))
(def answer-average (calculate-average answer-frequencies))
(println "Average question frequency:" question-average)
(println "Average answer frequency:" answer-average)
活跃度稳定性比较
除了参与频率,我们还可以比较提问者和回答者活跃度的稳定性。可以通过计算每个用户提问和回答频率的标准差来衡量活跃度的稳定性。以下是计算标准差的示例代码:
(defn calculate-std-dev [freqs]
(let [mean (calculate-average freqs)
squared-diffs (map #(Math/pow (- % mean) 2) freqs)
variance (/ (apply + squared-diffs) (count freqs))]
(Math/sqrt variance)))
(def question-std-dev (calculate-std-dev question-frequencies))
(def answer-std-dev (calculate-std-dev answer-frequencies))
(println "Standard deviation of question frequency:" question-std-dev)
(println "Standard deviation of answer frequency:" answer-std-dev)
通过比较标准差的大小,我们可以判断提问者和回答者活跃度的稳定性。如果标准差较小,说明活跃度比较稳定;如果标准差较大,说明活跃度波动较大。
8.3 结果分析
通过以上分析,我们可以得到提问者和回答者在参与频率和活跃度稳定性方面的差异。例如,如果提问的平均频率较低,而回答的平均频率较高,可能说明回答者更活跃;如果提问频率的标准差较大,而回答频率的标准差较小,可能说明提问者的活跃度波动较大,而回答者的活跃度相对稳定。
这些分析结果可以帮助我们更好地了解提问者和回答者的行为特点,从而为社交网络的运营提供有针对性的建议,例如如何激励提问者更积极地参与,如何保持回答者的活跃度等。
9. 发现随时间变化的参与模式
9.1 数据处理
要分析随时间变化的参与模式,我们需要从原始数据中提取时间信息。在 StackExchange 的数据中,每个帖子都有一个
CreationDate
属性,我们可以利用这个属性来分析不同时间段的参与情况。
首先,我们需要修改之前的
read-posts
函数,使其能够提取每个帖子的创建时间:
(defn read-posts-with-time [stream]
(let [posts (:content (xml/parse stream))]
(map (fn [post]
(assoc post :creation-date (-> post :attrs :CreationDate))
) posts)))
然后,我们可以修改
load-user-infos
函数,使用新的
read-posts-with-time
函数来加载数据:
(defn load-user-infos-with-time [filename]
(with-open [s (io/input-stream filename)]
(->> s
read-posts-with-time
(reduce update-user-index {})
vals
(remove nil?)
doall)))
9.2 时间分组
为了分析随时间的参与模式,我们可以将时间划分为不同的时间段,例如按年、月、日进行分组。以下是按年分组的示例代码:
(defn group-posts-by-year [posts]
(group-by (fn [post]
(subs (:creation-date post) 0 4))
posts))
使用这个函数,我们可以将所有帖子按年份进行分组:
(def posts-by-year (group-posts-by-year (read-posts-with-time (io/input-stream "data/stackoverflow.com-Posts"))))
9.3 分析每个时间段的参与情况
对于每个时间段,我们可以计算提问和回答的数量,以及参与的用户数量等指标。以下是计算每个年份提问和回答数量的示例代码:
(defn count-questions-and-answers [posts]
(let [questions (filter #(= (:PostTypeId (:attrs %)) 1) posts)
answers (filter #(= (:PostTypeId (:attrs %)) 2) posts)]
{:questions (count questions)
:answers (count answers)}))
(def participation-by-year
(reduce (fn [result [year posts]]
(assoc result year (count-questions-and-answers posts)))
{}
posts-by-year))
9.4 可视化分析结果
为了更直观地观察随时间变化的参与模式,我们可以将分析结果进行可视化。可以使用一些图表库,如 Incanter 来绘制折线图,展示不同年份的提问和回答数量的变化趋势。以下是一个简单的 Incanter 示例代码:
(use '(incanter core charts))
(def years (sort (keys participation-by-year)))
(def question-counts (map #(:questions (participation-by-year %)) years))
(def answer-counts (map #(:answers (participation-by-year %)) years))
(view (line-chart years question-counts
:title "Question and Answer Counts by Year"
:x-label "Year"
:y-label "Count"
:series-label "Questions")
(add-lines answer-counts :series-label "Answers"))
通过可视化分析结果,我们可以更清晰地看到随时间变化的参与模式,例如是否存在季节性变化、是否有参与人数的增长或下降趋势等。
10. 找到获得点赞的回答
10.1 数据筛选
要找到获得点赞的回答,我们需要从数据中筛选出回答类型的帖子,并提取其点赞数信息。在 StackExchange 的数据中,回答的
PostTypeId
为 2,点赞数通过
Score
属性表示。
以下是筛选回答并提取点赞数的示例代码:
(defn filter-answers [posts]
(filter #(= (:PostTypeId (:attrs %)) 2) posts))
(defn extract-scores [answers]
(map #(u/->long (:Score (:attrs %))) answers))
使用这两个函数,我们可以得到所有回答的点赞数列表:
(def all-answers (filter-answers (read-posts (io/input-stream "data/stackoverflow.com-Posts"))))
(def answer-scores (extract-scores all-answers))
10.2 分析高点赞回答的特征
为了找到高点赞回答的特征,我们可以对高点赞回答进行进一步分析。首先,我们可以设置一个阈值,筛选出点赞数高于该阈值的回答:
(defn filter-high-score-answers [answers threshold]
(filter #(> (u/->long (:Score (:attrs %))) threshold) answers))
(def high-score-answers (filter-high-score-answers all-answers 100))
然后,我们可以分析高点赞回答的文本内容、标签等特征。例如,我们可以统计高点赞回答中出现频率较高的标签:
(defn extract-tags [post]
(let [tags-str (:Tags (:attrs post))]
(when tags-str
(re-seq #"<([^>]+)>" tags-str))))
(def high-score-tags (mapcat extract-tags high-score-answers))
(def tag-frequencies (frequencies high-score-tags))
通过分析标签频率,我们可以了解高点赞回答通常涉及哪些领域或主题,这有助于我们更好地理解用户对回答的偏好。
10.3 建立预测模型
为了预测一个回答是否会获得高点赞,我们可以建立一个预测模型。可以使用机器学习算法,如朴素贝叶斯分类器,结合回答的文本内容、标签、用户信息等特征来进行训练。
以下是一个简单的使用 Mallet 库进行朴素贝叶斯分类的示例代码:
(use '[cc.mallet.classify :as classify])
(use '[cc.mallet.pipe :as pipe])
(use '[cc.mallet.types :as types])
(defn create-instance [post score]
(let [text (-> post :attrs :Body)
label (if (> score 100) "high-score" "low-score")]
(types/Instance. text label nil nil)))
(def instances (map (fn [post]
(create-instance post (u/->long (:Score (:attrs post)))))
all-answers))
(def pipe (pipe/Pipe. [(pipe/Input2CharSequence.)
(pipe/CharSequenceLowercase.)
(pipe/CharSequence2TokenSequence.)
(pipe/TokenSequenceRemoveStopwords.)
(pipe/TokenSequence2FeatureSequence.)
(pipe/FeatureSequence2FeatureVector.)
(pipe/Target2Label.)]))
(def instance-list (types/InstanceList. pipe))
(doseq [instance instances]
(.add instance-list instance))
(def trainer (classify/NaiveBayesTrainer.))
(def classifier (.train trainer instance-list))
通过建立预测模型,我们可以对新的回答进行预测,判断其是否有可能获得高点赞,这有助于社交网络平台推荐更有价值的回答。
11. 自动标记问题
11.1 数据预处理
要实现自动标记问题,我们需要对问题的文本内容进行预处理。首先,我们需要去除 HTML 标签,因为问题的
Body
和
Title
字段中可能包含 HTML 编码的内容。我们可以使用
jsoup
库来完成这个任务:
(defn clean-html [html]
(-> (Jsoup/clean html (Whitelist/basic))
.text))
然后,我们可以将问题的
Title
和
Body
内容合并,并进行分词处理:
(defn preprocess-question [question]
(let [title (clean-html (:Title (:attrs question)))
body (clean-html (:Body (:attrs question)))
text (str title " " body)
tokens (str/split text #"\s+")]
tokens))
11.2 特征提取
为了自动标记问题,我们需要从问题的文本中提取特征。可以使用词频统计、TF-IDF 等方法来提取特征。以下是使用 TF-IDF 方法提取特征的示例代码:
(use '[clojure.data.priority-map :as pm])
(defn calculate-tf [tokens]
(let [freqs (frequencies tokens)
total (count tokens)]
(pm/priority-map-by >
(map (fn [[token freq]]
[token (/ freq total)])
freqs))))
(defn calculate-idf [all-questions token]
(let [doc-count (count all-questions)
doc-with-token-count (count (filter #(some #{%} %) all-questions))]
(Math/log (/ doc-count (inc doc-with-token-count)))))
(defn calculate-tf-idf [all-questions tokens]
(let [tf (calculate-tf tokens)]
(pm/priority-map-by >
(map (fn [[token freq]]
[token (* freq (calculate-idf all-questions token))])
tf))))
11.3 标记预测
使用提取的特征,我们可以建立一个分类器来预测问题的标签。可以使用之前训练好的朴素贝叶斯分类器,或者其他机器学习算法。以下是一个简单的预测标签的示例代码:
(defn predict-tags [question classifier]
(let [tokens (preprocess-question question)
text (str/join " " tokens)
instance (types/Instance. text nil nil nil)
_ (.pipe pipe instance)
result (.classify classifier instance)]
(.getBestLabel result)))
通过自动标记问题,我们可以帮助用户更方便地找到相关问题,提高社交网络的搜索效率和用户体验。
12. 总结
通过对 StackExchange 数据的分析,我们深入了解了社交网络中用户的参与模式。我们发现社交网络存在 80/20 规则,即少数用户贡献了大部分内容。同时,我们比较了提问者和回答者的不同,发现他们在参与频率和活跃度稳定性方面存在差异。
我们还分析了随时间变化的参与模式,通过按时间分组和可视化分析,了解了不同时间段的参与情况。此外,我们找到了获得点赞的回答的特征,并建立了预测模型来预测回答是否会获得高点赞。最后,我们实现了自动标记问题的功能,提高了社交网络的搜索效率。
这些分析结果对于社交网络的运营者具有重要的参考价值,可以帮助他们更好地了解用户行为,优化平台设计,提高用户参与度和满意度。未来,我们可以进一步拓展分析的维度,例如结合用户的地理位置、社交关系等信息,以更全面地了解社交网络的运行机制。
graph LR
A[社交数据获取] --> B[数据处理]
B --> C[参与模式分析]
C --> D[比较提问者和回答者]
C --> E[随时间变化的参与模式]
C --> F[找到高点赞回答]
C --> G[自动标记问题]
D --> H[参与频率比较]
D --> I[活跃度稳定性比较]
E --> J[时间分组]
E --> K[分析各时间段参与情况]
E --> L[可视化结果]
F --> M[数据筛选]
F --> N[分析高点赞回答特征]
F --> O[建立预测模型]
G --> P[数据预处理]
G --> Q[特征提取]
G --> R[标记预测]
以上流程图展示了整个社交数据参与分析的流程,从数据获取开始,经过数据处理,然后进行多种参与模式的分析,包括比较提问者和回答者、分析随时间变化的参与模式、找到高点赞回答和自动标记问题等。每个大的分析模块又包含了具体的步骤,如比较提问者和回答者包括参与频率比较和活跃度稳定性比较等。这个流程图清晰地展示了整个分析过程的逻辑结构。
超级会员免费看
19

被折叠的 条评论
为什么被折叠?



