In [1]:
import requests
import csv
import bs4
from bs4 import BeautifulSoup
In [2]:
def grabData(pageAmount, name, fileName):
    listname = []
    listflavor = []
    listenvir = []
    listserv = []
    listcomm = []
    listpage = []
    listprice = []
    for i in range(1, pageAmount):
        url = 'https://www.dianping.com/search/keyword/7/10_%s/p%s' % (name, i)
        print(url)
        r = requests.get(url, headers={'User-Agent':'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 '  
                          '(KHTML, like Gecko) Chrome/45.0.2454.101 Safari/537.36'})
        r.encoding = 'utf8'
        mypage = BeautifulSoup(r.text)

        main_div = mypage.find_all('div', attrs = {'class': 'txt'})
        for main in main_div:
            tit = None
            comm = None
            tit = main.find_all('div', attrs = {'class':'tit'})
            marks = main.find_all('span', attrs = {'class':'comment-list'})
            comm = main.find_all('div', attrs = {'class':'comment'})
            pages = main.find_all('a', attrs = {'data-hippo-type':'shop'})
            myprice = main.find_all('a', attrs = {'class':'mean-price'})
            
            if not marks:
                pass
            else:
                for title in tit:
                    branch_name = title.find('h4')
                    listname.append(branch_name.text)
                for list in marks:
                    flavor = list.find('b')
                    listflavor.append(flavor.text)
                    envir = list.find_all('b')[1]
                    listenvir.append(envir.text)
                    serv = list.find_all('b')[2]
                    listserv.append(serv.text)
                for comment in comm:
                    remark = comment.find('b')
                    if remark is not None:
                        listcomm.append(remark.text)
                    else:
                        listcomm.append('0')
                for page in pages:
                    page_link = page['href']
                    listpage.append(page_link)
                    #print(page_link)
                for price in myprice:
                    cost = price.find('b')
                    if cost is not None:
                        price_str = cost.text
                        price = price_str[1:]
                        listprice.append(price)
                    else:
                        listprice.append('0')

    print('name:' + str(len(listname)) + ' flavor:' + str(len(listflavor)) + ' envir:' + str(len(listenvir)) + ' serv:' + str(len(listserv)) + ' comm:' + str(len(listcomm)) + ' links:' + str(len(listpage)) + ' price:' + str(len(listprice)))

    with open(fileName + '.csv','w') as f:
        writer = csv.writer(f)
        header = ['name','taste','environment','service','price','comment-volume','link']
        writer.writerow(header)
        writer.writerows(zip(listname,listflavor,listenvir,listserv,listprice,listcomm,listpage))
In [3]:
grabData(19,'麦当劳', 'mcdonald')
grabData(19,'肯德基','kfc')
grabData(6,'大家乐','dajiale')
grabData(11,'真功夫','zhengongfu')
grabData(15,'华莱士', 'wallace')
https://www.dianping.com/search/keyword/7/10_麦当劳/p1
/Users/jiaxi/.pyenv/versions/anaconda3-5.1.0/lib/python3.6/site-packages/bs4/__init__.py:181: UserWarning: No parser was explicitly specified, so I'm using the best available HTML parser for this system ("lxml"). This usually isn't a problem, but if you run this code on another system, or in a different virtual environment, it may use a different parser and behave differently.

The code that caused this warning is on line 193 of the file /Users/jiaxi/.pyenv/versions/anaconda3-5.1.0/lib/python3.6/runpy.py. To get rid of this warning, change code that looks like this:

 BeautifulSoup(YOUR_MARKUP})

to this:

 BeautifulSoup(YOUR_MARKUP, "lxml")

  markup_type=markup_type))
https://www.dianping.com/search/keyword/7/10_麦当劳/p2
https://www.dianping.com/search/keyword/7/10_麦当劳/p3
https://www.dianping.com/search/keyword/7/10_麦当劳/p4
https://www.dianping.com/search/keyword/7/10_麦当劳/p5
https://www.dianping.com/search/keyword/7/10_麦当劳/p6
https://www.dianping.com/search/keyword/7/10_麦当劳/p7
https://www.dianping.com/search/keyword/7/10_麦当劳/p8
https://www.dianping.com/search/keyword/7/10_麦当劳/p9
https://www.dianping.com/search/keyword/7/10_麦当劳/p10
https://www.dianping.com/search/keyword/7/10_麦当劳/p11
https://www.dianping.com/search/keyword/7/10_麦当劳/p12
https://www.dianping.com/search/keyword/7/10_麦当劳/p13
https://www.dianping.com/search/keyword/7/10_麦当劳/p14
https://www.dianping.com/search/keyword/7/10_麦当劳/p15
https://www.dianping.com/search/keyword/7/10_麦当劳/p16
https://www.dianping.com/search/keyword/7/10_麦当劳/p17
https://www.dianping.com/search/keyword/7/10_麦当劳/p18
name:214 flavor:214 envir:214 serv:214 comm:214 links:214 price:214
https://www.dianping.com/search/keyword/7/10_肯德基/p1
https://www.dianping.com/search/keyword/7/10_肯德基/p2
https://www.dianping.com/search/keyword/7/10_肯德基/p3
https://www.dianping.com/search/keyword/7/10_肯德基/p4
https://www.dianping.com/search/keyword/7/10_肯德基/p5
https://www.dianping.com/search/keyword/7/10_肯德基/p6
https://www.dianping.com/search/keyword/7/10_肯德基/p7
https://www.dianping.com/search/keyword/7/10_肯德基/p8
https://www.dianping.com/search/keyword/7/10_肯德基/p9
https://www.dianping.com/search/keyword/7/10_肯德基/p10
https://www.dianping.com/search/keyword/7/10_肯德基/p11
https://www.dianping.com/search/keyword/7/10_肯德基/p12
https://www.dianping.com/search/keyword/7/10_肯德基/p13
https://www.dianping.com/search/keyword/7/10_肯德基/p14
https://www.dianping.com/search/keyword/7/10_肯德基/p15
https://www.dianping.com/search/keyword/7/10_肯德基/p16
https://www.dianping.com/search/keyword/7/10_肯德基/p17
https://www.dianping.com/search/keyword/7/10_肯德基/p18
name:206 flavor:206 envir:206 serv:206 comm:206 links:206 price:206
https://www.dianping.com/search/keyword/7/10_大家乐/p1
https://www.dianping.com/search/keyword/7/10_大家乐/p2
https://www.dianping.com/search/keyword/7/10_大家乐/p3
https://www.dianping.com/search/keyword/7/10_大家乐/p4
https://www.dianping.com/search/keyword/7/10_大家乐/p5
name:24 flavor:24 envir:24 serv:24 comm:24 links:24 price:24
https://www.dianping.com/search/keyword/7/10_真功夫/p1
https://www.dianping.com/search/keyword/7/10_真功夫/p2
https://www.dianping.com/search/keyword/7/10_真功夫/p3
https://www.dianping.com/search/keyword/7/10_真功夫/p4
https://www.dianping.com/search/keyword/7/10_真功夫/p5
https://www.dianping.com/search/keyword/7/10_真功夫/p6
https://www.dianping.com/search/keyword/7/10_真功夫/p7
https://www.dianping.com/search/keyword/7/10_真功夫/p8
https://www.dianping.com/search/keyword/7/10_真功夫/p9
https://www.dianping.com/search/keyword/7/10_真功夫/p10
name:121 flavor:121 envir:121 serv:121 comm:121 links:121 price:121
https://www.dianping.com/search/keyword/7/10_华莱士/p1
https://www.dianping.com/search/keyword/7/10_华莱士/p2
https://www.dianping.com/search/keyword/7/10_华莱士/p3
https://www.dianping.com/search/keyword/7/10_华莱士/p4
https://www.dianping.com/search/keyword/7/10_华莱士/p5
https://www.dianping.com/search/keyword/7/10_华莱士/p6
https://www.dianping.com/search/keyword/7/10_华莱士/p7
https://www.dianping.com/search/keyword/7/10_华莱士/p8
https://www.dianping.com/search/keyword/7/10_华莱士/p9
https://www.dianping.com/search/keyword/7/10_华莱士/p10
https://www.dianping.com/search/keyword/7/10_华莱士/p11
https://www.dianping.com/search/keyword/7/10_华莱士/p12
https://www.dianping.com/search/keyword/7/10_华莱士/p13
https://www.dianping.com/search/keyword/7/10_华莱士/p14
name:146 flavor:146 envir:146 serv:146 comm:146 links:146 price:146
In [4]:
import numpy as np
import matplotlib.pyplot as plt
import pandas as pd
import matplotlib.font_manager as font_manager
In [5]:
def calcMark(highVolume, volume):
    return volume/highVolume*10 

def findHighComment(columnName):
    high = 0
    df = pd.read_csv('mcdonald.csv')
    if df[columnName].mean() > high:
        high = df[columnName].mean()
    df = pd.read_csv('kfc.csv')
    if df[columnName].mean() > high:
        high = df[columnName].mean()
    df = pd.read_csv('dajiale.csv')
    if df[columnName].mean() > high:
        high = df[columnName].mean()
    df = pd.read_csv('zhengongfu.csv')
    if df[columnName].mean() > high:
        high = df[columnName].mean()
    df = pd.read_csv('wallace.csv')
    if df[columnName].mean() > high:
        high = df[columnName].mean()
    return high

def findHighVol():
    high = 0
    df = pd.read_csv('mcdonald.csv')
    if df["service"].count() > high:
        high = df["service"].count()
    df = pd.read_csv('kfc.csv')
    if df["service"].count() > high:
        high = df["service"].count()
    df = pd.read_csv('dajiale.csv')
    if df["service"].count() > high:
        high = df["service"].count()
    df = pd.read_csv('zhengongfu.csv')
    if df["service"].count() > high:
        high = df["service"].count()
    df = pd.read_csv('wallace.csv')
    if df["service"].count() > high:
        high = df["service"].count()
    return high
In [6]:
df = pd.read_csv('mcdonald.csv')
highComment = findHighComment("comment-volume")
highVolume = findHighVol()
mcdonald_marks = [df["taste"].mean(),df["environment"].mean(),df["service"].mean(),calcMark(highComment,df["comment-volume"].mean()),calcMark(highVolume,df["service"].count())]

df.describe()
#df = pd.read_csv('kfc.csv')
#kfc_marks = [df["taste"].mean(),df["environment"].mean(),df["service"].mean(),calcMark(highComment,df["comment-volume"].mean()),calcMark(highVolume,df["service"].count())]

#df = pd.read_csv('dajiale.csv')
#dajiale_marks = [df["taste"].mean(),df["environment"].mean(),df["service"].mean(),calcMark(highComment,df["comment-volume"].mean()),calcMark(highVolume,df["service"].count())]

#df = pd.read_csv('wallace.csv')
#wallace_marks = [df["taste"].mean(),df["environment"].mean(),df["service"].mean(),calcMark(highComment,df["comment-volume"].mean()),calcMark(highVolume,df["service"].count())]

#df = pd.read_csv('zhengongfu.csv')
#zhengongfu_marks = [df["taste"].mean(),df["environment"].mean(),df["service"].mean(),calcMark(highComment,df["comment-volume"].mean()),calcMark(highVolume,df["service"].count())]
Out[6]:
taste environment service price comment-volume
count 214.000000 214.000000 214.000000 214.000000 214.000000
mean 7.330374 7.354673 7.291589 24.172897 44.303738
std 0.238467 0.242157 0.254397 8.668816 36.561817
min 6.600000 6.700000 6.300000 0.000000 1.000000
25% 7.200000 7.200000 7.200000 22.000000 18.000000
50% 7.300000 7.400000 7.300000 26.000000 34.500000
75% 7.400000 7.500000 7.400000 28.000000 59.500000
max 8.000000 8.400000 8.100000 54.000000 213.000000
In [7]:
df = pd.read_csv('kfc.csv')
kfc_marks = [df["taste"].mean(),df["environment"].mean(),df["service"].mean(),calcMark(highComment,df["comment-volume"].mean()),calcMark(highVolume,df["service"].count())]

df.describe()
Out[7]:
taste environment service price comment-volume
count 206.000000 206.000000 206.000000 206.000000 206.000000
mean 7.265534 7.325243 7.248058 25.441748 70.174757
std 0.179773 0.182513 0.207825 11.948018 490.491261
min 6.400000 6.500000 6.500000 0.000000 1.000000
25% 7.200000 7.200000 7.200000 24.000000 15.250000
50% 7.300000 7.300000 7.300000 28.000000 30.000000
75% 7.400000 7.400000 7.300000 29.000000 47.750000
max 8.100000 8.200000 8.200000 78.000000 7057.000000
In [8]:
df = pd.read_csv('dajiale.csv')
dajiale_marks = [df["taste"].mean(),df["environment"].mean(),df["service"].mean(),calcMark(highComment,df["comment-volume"].mean()),calcMark(highVolume,df["service"].count())]

df.describe()
Out[8]:
taste environment service price comment-volume
count 24.000000 24.000000 24.000000 24.000000 24.000000
mean 7.195833 7.312500 7.250000 34.458333 410.125000
std 0.207426 0.243726 0.230312 7.581322 354.791343
min 6.800000 6.800000 6.800000 0.000000 1.000000
25% 7.075000 7.200000 7.200000 35.000000 132.500000
50% 7.200000 7.400000 7.250000 36.000000 419.500000
75% 7.325000 7.500000 7.400000 36.000000 586.250000
max 7.600000 7.700000 7.600000 41.000000 1401.000000
In [9]:
df = pd.read_csv('wallace.csv')
wallace_marks = [df["taste"].mean(),df["environment"].mean(),df["service"].mean(),calcMark(highComment,df["comment-volume"].mean()),calcMark(highVolume,df["service"].count())]
df.describe()
Out[9]:
taste environment service price comment-volume
count 146.000000 146.000000 146.000000 146.000000 146.000000
mean 7.165753 7.165753 7.130822 15.041096 120.253425
std 0.324715 0.310825 0.352051 8.832445 157.070018
min 6.000000 6.300000 6.000000 0.000000 0.000000
25% 7.000000 6.900000 6.900000 14.000000 3.000000
50% 7.200000 7.200000 7.200000 19.000000 33.500000
75% 7.400000 7.400000 7.400000 20.000000 218.750000
max 7.800000 7.800000 7.700000 33.000000 864.000000
In [10]:
df = pd.read_csv('zhengongfu.csv')
zhengongfu_marks = [df["taste"].mean(),df["environment"].mean(),df["service"].mean(),calcMark(highComment,df["comment-volume"].mean()),calcMark(highVolume,df["service"].count())]
df.describe()
Out[10]:
taste environment service price comment-volume
count 121.000000 121.000000 121.000000 121.000000 121.000000
mean 7.217355 7.329752 7.199174 22.925620 243.702479
std 0.223487 0.225701 0.250498 9.312326 208.009801
min 6.400000 6.500000 6.300000 0.000000 1.000000
25% 7.100000 7.200000 7.000000 21.000000 62.000000
50% 7.200000 7.300000 7.200000 24.000000 215.000000
75% 7.400000 7.500000 7.400000 27.000000 358.000000
max 7.600000 7.900000 7.700000 51.000000 1020.000000
In [16]:
#标签
labels = np.array(['口味','环境','服务','点评数','门店数'])
#数据个数
dataLenth = 5
#数据

mcdonald_data = np.array(mcdonald_marks)
kfc_data = np.array(kfc_marks)
dajiale_data = np.array(dajiale_marks)
wallace_data = np.array(wallace_marks)
zhengongfu_data = np.array(zhengongfu_marks)

angles = np.linspace(0, 2*np.pi, dataLenth, endpoint=False)
mcdonald_data = np.concatenate((mcdonald_data, [mcdonald_data[0]])) # 闭合
kfc_data = np.concatenate((kfc_data, [kfc_data[0]])) # 闭合
dajiale_data = np.concatenate((dajiale_data, [dajiale_data[0]])) # 闭合
wallace_data = np.concatenate((wallace_data, [wallace_data[0]])) # 闭合
zhengongfu_data = np.concatenate((zhengongfu_data, [zhengongfu_data[0]])) # 闭合


angles = np.concatenate((angles, [angles[0]])) # 闭合

fig = plt.figure(figsize=(10, 10))
plt.style.use('ggplot')
ax = fig.add_subplot(111, polar=True)# polar参数!!
ax.plot(angles, mcdonald_data, 'bo-', linewidth=2, label='麦当劳')# 画线
ax.fill(angles, mcdonald_data, facecolor='r', alpha=0.25)# 填充
# 绘制第二条折线图
ax.plot(angles, kfc_data, 'o-', linewidth=2, label = '肯德基')
ax.fill(angles, kfc_data, facecolor='b', alpha=0.25)# 填充
# 绘制第三条折线图
ax.plot(angles, dajiale_data, 'go-', linewidth=2, label = '大家乐')
ax.fill(angles, dajiale_data, facecolor='g', alpha=0.25)# 填充
# 绘制第四条折线图
ax.plot(angles, wallace_data, 'yo-', linewidth=2, label = '华莱士')
ax.fill(angles, wallace_data, facecolor='y', alpha=0.25)# 填充
# 绘制第五条折线图
ax.plot(angles, zhengongfu_data, 'mo-', linewidth=2, label = '真功夫')
ax.fill(angles, zhengongfu_data, facecolor='m', alpha=0.25)# 填充
ax.set_thetagrids(angles * 180/np.pi, labels, fontproperties="SimHei")
ax.set_title("深圳快餐行业调查", va='bottom', fontproperties="SimHei")
ax.set_rlim(0,10)
ax.grid(True)
# 设置图例
font = font_manager.FontProperties(family='SimHei')
plt.legend(loc = 'best',prop=font)
plt.show()
In [36]:
rank_dic = {'urr-rank10' : 'LV1', 'urr-rank20' : 'LV2', 'urr-rank30' : 'LV3', 'urr-rank40' : 'LV4', 'urr-rank45' : 'LV5', 'urr-rank50' : 'LV6', 'urr-rank60' : 'LV7' }
In [111]:
df = pd.read_csv('dajiale.csv')
links = df["link"]
out_file = open("dajiale_comments", "w")
counter = 0

list_comm_time = []
list_comm_rank = []
list_comm_comm = []

for link in links:
    counter = counter + 1
    print('**counter:' + str(counter))
    if counter > 2:
        print('**break')
        break
    import time
    time.sleep(4)
    link = link + '/review_all'
    print(link)
    r = requests.get(link, headers={'User-Agent':'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_12_6) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/64.0.3282.186 Safari/537.36'})
    r.encoding = 'utf8'
    page = BeautifulSoup(r.text)
    print('***page\n')
    #print(page)
    main_comm_div = page.find_all('div', attrs = {'class' : 'main-review'})
              
    if len(main_comm_div) == 0:
        out_file.write(link)
        out_file.write("\n")
    
    for comm_div in main_comm_div:
        comment_div = comm_div.find('div', attrs = {'class': 'review-words Hide'})
        print("comment:") 
        print(comment_div)
        print("comment starts")
        if not comment_div:
            continue
        comment_str = comment_div.text
        comment_str = comment_str.replace(" ", "").replace("\n","").replace("收起评论","")
        comment_str = comment_str + "\n"
        #print(comment_str)
        list_comm_comm.append(comment_str)
        out_file.write(comment_str)
        print("comments ends")
        
        user_div = comm_div.find('div', attrs = {'class' : 'dper-info'})
        rank = user_div.find('span')['class']
        rank_data = rank_dic[rank[1]]
        print(rank_data)
        list_comm_rank.append(rank_data)
        time = comm_div.find('span', attrs = {'class' : 'time'})
        time_str = time.text
        print("time:")
        if "更新于" not in time_str: 
            time_data = time_str.strip()
        else:
            time_data = time_str.split('更新于')[1].strip();
        time_data = time_data.split(' ')[0]
        time_data_list = time_data.split('-')
        time_data = time_data_list[0] + '-' + time_data_list[1]
        list_comm_time.append(time_data)
        print(time_data)
        
with open('comments.csv','w') as f:
        writer = csv.writer(f)
        header = ['time','rank','comment']
        writer.writerow(header)
        writer.writerows(zip(list_comm_time,list_comm_rank,list_comm_comm))

out_file.close()
**counter:1
http://www.dianping.com/shop/32529713/review_all
***page

**counter:2
/Users/jiaxi/.pyenv/versions/anaconda3-5.1.0/lib/python3.6/site-packages/bs4/__init__.py:181: UserWarning: No parser was explicitly specified, so I'm using the best available HTML parser for this system ("lxml"). This usually isn't a problem, but if you run this code on another system, or in a different virtual environment, it may use a different parser and behave differently.

The code that caused this warning is on line 193 of the file /Users/jiaxi/.pyenv/versions/anaconda3-5.1.0/lib/python3.6/runpy.py. To get rid of this warning, change code that looks like this:

 BeautifulSoup(YOUR_MARKUP})

to this:

 BeautifulSoup(YOUR_MARKUP, "lxml")

  markup_type=markup_type))
http://www.dianping.com/shop/32529708/review_all
***page

**counter:3
**break
In [534]:
from os import path
import jieba
import sys

stopwords_path = 'stop_words' # 停用词词表
text_path = 'dajiale_comments_test' #设置要分析的文本路径
text = open(text_path).read()


def jiebaclearText(text):
    mywordlist = []
    seg_list = jieba.cut(text, cut_all=False)
    liststr="/ ".join(seg_list)
    f_stop = open(stopwords_path)
    try:
        f_stop_text = f_stop.read( )
    finally:
        f_stop.close( )
    f_stop_seg_list=f_stop_text.split('\n')
    for myword in liststr.split('/'):
        if not(myword.strip() in f_stop_seg_list) and len(myword.strip())>1:
            mywordlist.append(myword)
    return ''.join(mywordlist)

text1 = jiebaclearText(text)
print(text1)
 催哥 粉丝汤 难吃 份量 所以 对面 吃个 大家乐 快餐 以前 他家 快餐 烧腊 不错 万象 后面 几家 烧腊 感觉 这个 真是 不能 环境卫生 皮沙发 坐烂 皮沙发 看着 比较 倒味口 挨着 最后 一个 位置 知道 那里 冒出来 类似 牙齿 那种 臭味 点单 服务员 知道 为啥 高兴 太久 十几个 小时 飞行 之后 第一个 直奔 餐厅 哪里 十天 欧洲 沙拉 欧式 面包 法餐 船上 新式 中餐 不能 习惯 部分 出品 更是 惊艳 然而 大脑 忍不住 怀念 熟悉 味道 作为 连锁 餐厅 大家乐 不能 称得上 好吃 部分 出品 更是 有些 雷区 可是 陪伴 长大 地方 十多年 南山 好像 一直 那里 店里 装修 历经 翻新 一杯 奶茶 浸透 岁月 怀旧 气息 一哥 猪扒 年少时 各式 烧腊 稳定 出品 猪扒 蜜糖 鸡翼 惊艳 至于 早餐 一份 丰盛 热腾腾 港式 早餐 总是 喜人 就让 我们 短暂 忘记 里面 隐藏 卡路里 这个 世界 多少 东西 十年 大家乐 旁边 吉之岛 搬离 之际 大家乐 一家 知名 连锁 快餐店 点单 品种 简单 好去处 每次 大家乐 总是 忍不住 一份 一哥 猪扒 带骨 猪扒 浓郁 酱汁 味道 不错 里面 还有 青豆 番茄 软软 好吃 底下 炒饭 个人 觉得 麻麻 有点 偏干身 如果 湿软 一点 更好 某人 一哥 猪排 有着 某种程度 执念 所以 愉快 过来 猪扒 腌渍 过有 味道 单吃 不错 另外 菠萝 梅子 京都 牛肉 酸甜 开胃 适合 食欲 不好 某人 光吃 猪扒 炒饭 饱饱 我俩 剩下 一半 这里 分量 相当 大家乐 海岸 城店 地址 海岸 购物中心 一楼 ZARA 每次 知道 什么 时候 大家乐 一定 不会错 因为 太爱 它家 叉烧 油鸡 几乎 每次 必点 夏天 餐配 包茶 已经 适合 夏天 炎热 天气 希望 出来 哪怕 白开水 可以 海岸 城店 这是 一家 无数次 可以 银联 钱包 买单 优惠 10 10 可以 划算 所以 爸妈 经常 这家 早餐 哈哈 知道 优惠 什么 时候 截止 所以 羊毛 宝宝 赶快 环境 位置 很多 桌椅 很多 所以 略显 拥挤 反正 不是 舒服 不过 大家乐 属于 快餐 要求 这么 匆匆 匆匆 服务 服务 OK 点餐 服务员 指引 菜品 算是 比较 热情 普通 服务员 忙碌 所以 没什么 空理 哈哈哈哈 各取所需 大家乐 集团 创立 1968 1986 香港 联合 交易所 成功 上市 大家乐 集团 现时 全球 最大 中式 连锁 餐饮 集团 多元化 业务 遍布 世界各地 包括 快餐 机构 饮食 特色 餐厅 食品 产制 分销 海外 餐饮 业务 全球 拥有 超过 600 多个 营运 单位 谢谢 大家 这家 大家乐 装修 风格 其他 不大一样 这家 透亮 一点 不是 黑色 喜欢 他家 招牌 芝士 猪扒 整只 烧春鸡 芝士 猪扒 可以 一杯 饮料 奶茶 咖啡 或者 汽水 会配 刀叉 大块 猪扒 需要 芝士 刚好 番茄 味道 融合 非常 好吃 烧春鸡 一整只 烤鸡 刚上 时候 难免 有点 这家 饮料 冰块 普通 不是 其他 那种 一粒 碎冰 内地 香港 一样 完单 可以 位置 服务员 送过来 需要 自己 最近 银联 云闪付 支付 活动 周六 地铁站 海岸 12 00 开始 一直 很多 一波来 一波 确实 大家乐 味道 不错 但是 今天 烧鸭 为什么 这么 一块 为什么 这么 导致 鸡肉 剩下 烧鸭 开心 翻台率 赶紧 赶紧 哈哈哈 方面 不错 香港 连锁 快餐店 以前 偶尔 现在 距离 一次 已经 很久 再次 居然 以前 觉得 好吃 好感 当然 不能 差评 毕竟 人家 招牌 有名 受欢迎 这家 后海 中午 爆满 经常 排队 服务态度 不错 上菜 速度 可以 深圳 旅游 下午茶 系列 闺蜜 香港 连锁店 地带 我来 试下 我们 两玩 午饭 所以 套餐 朋友 帮忙 味道 不错 可以 免费 加水 一会 奶茶 直接 糖包 奶茶 味道 不错 可以 感觉 不是 那种 粉冲 哇哇 这个 美味 早餐 好吃 无论是 中餐 西餐 早餐 大家乐 得到 好多 选择 他们 早餐 价钱 非常 实惠 一点 不贵 这里 客服 礼貌 有效率 东西 分量 不过 一家 不好 商场 十点钟 开门 所以 十点钟 可以 这里 所以 平时 上班 基本上 可能 只有 公众 假期 时候 才能 实现 不过 值得 因为 这样 品质 早餐 真的 人家 一种 满满的 能量 开开心心 一天 开始 午饭 午饭 午饭 早上 课有 两个 小时 空档 在益 假日 广场 B2 底层 美食街 一趟 好像 看到 特别 最后 回来 溜冰场 旁边 大家乐 用餐 环境 环境 不错 宽阔 很多 位子 不会 香港 那些 大家乐 环境 拥挤 里边 灯饰 不错 随手 一张 最后 自己 坐在 角落 bar 台位 送餐 科技 体验 深圳 这里 一些 香港 品牌 快餐店 大家乐 快活 香港 一样 需要 自己 拿餐 服务员 送餐 位子 餐厅 这么 多人 怎么 今天 初体验 客人 位置 桌位 定位 科技 号码牌 放到 桌子 制定 定位 发送 服务员 能够 精准 找到 海南 鸡饭 套餐 好久没 海南 鸡饭 今天 试试 这里 套餐 形式 38 有点 小贵 莲藕 花生 一般般 有点 不够 带上 一些 开胃菜 腌制 白菜 白萝卜 还好 没太大 惊喜 海南 鸡饭 eemmm 份量 不是 很多 而且 鸡肉 有些 偏肥 而且 带些 骨头 其实 海南 鸡饭 应该 做到 口感 另外 鸡肉 味道 很香 感觉 一般 鸡肉 而已 位于 益田 假日 广场 b2 溜冰场 旁边 很大 一家 人流量 每次 几乎 坐满 生意 非常 味道 喜欢 他们 海南 鸡饭 蘸上 酱料 很鲜香 旁边 酸菜 味道 不会 过多 口腔 留味 服务 一般 可能 人多 缘故 服务 机械化 过多 笑容 指引 优惠活动 不会 主动 告知 希望 改善 家人 完后 坐车 时间 比较 紧张 所以 随便 一家 很多 东西 基本 咖喱鸡 洋葱 猪扒 完餐 号码牌 放在 桌子 感应 知道 顾客 坐在 哪桌 做好 上桌 方便 家人 味道 不错 朋友 一起 午餐 白切 一家 大家乐 白切 米粉 咖喱 牛腩饭 速度 很快 服务员 反应 很快 一个 四宝饭 服务 棒棒 四宝饭 好吃 环境 不错 下午 来人少 安静 海南 功夫 鸡饭 不是 更新 决定 尝一尝 今年 第一次 大家乐 结果 端过来 时候 放饭 服务员 一次 这家 日常 忙乱 摆盘 糟糕 照片 这样 海报 之间 差距 有点 鸡肉 好吃 很嫩 出现 鸡毛 之类 姜汁 很棒 但是 酱油 太淡 只是 看起来 甜椒 比较 普通 然后 配菜 甜味 腌菜 胡萝卜 莲花 白萝卜 个人 喜欢 蚝油 生菜 莲藕 排骨汤 好喝 油饭 好吃 满满 一碗 以前 的话 差别 以前 但是 新加 几样 不太 合胃口 以前 那种 大家乐 海南 鸡饭 实在 失望 不论是 味道 食材 安全 期待 差太多 记得 香港 时候 味道 不错 怎么 深圳 这么 海南 鸡饭 味道 好淡 鸡肉 米饭 鸡肉 肉质 不是 开始 一块 鸡肉 几根 鸡毛 本来 就算 结果 后面 还有 两块 不能 接受 整体 水平 及格 希望 好好 重视 菜品 其实 喜欢 大家乐 一如既往 好吃 一哥 猪扒 竟然 降价 36 套餐 之前 38 好像 最近 活动 哈哈哈 哈哈 送餐 很快 环境 非常 干净 整洁 人蛮 但是 送餐 非常 奶茶 一如既往 好喝 nice 跟暖心 百科 姐去 香港 竟然 知道 什么 迷茫 我们 只好 深圳 百科 大家乐 烧春鸡 在益 假日 一楼 地铁站 出来 很快 找到 感觉 大家乐 生意 一直 不错 经常 处于 满座 情况 当然 百科 烧春鸡 外层 酱香 微焦 很脆 里面 感觉 柠茶 虽然 碎冰 新发 那种 感觉 快餐 不要 时间 浪费 下店 朋友 五六个 大家乐 外卖 卖相 一般 饭菜 不够 温度 黑椒 味道 可以 知道 什么 情况 两次 厕所 其他 朋友 还好 但愿 问题 价格 一般 如果 厕所 就要 商家 四星 推荐 电影 几个 小伙伴 赶着 打网球 大家 肯定 随便 一致 选择 大家乐 于是 起来 春鸡 焦肉脆 烧鸭 焦肉 现炸 现出 咖喱 猪扒 现炸 现出 焦肉 东坡 红烧肉 细腻 遗憾 东坡 红烧肉 里面 居然 纱布 线头 于是 马上 一份 价格 偏贵 建议 多些 优惠活动 吃饭 人太多 服务 跟不上 三星 推荐 周末 附近 上课 中午 看到 大家乐 进去 四宝饭 前台 服务员 解释 清楚 以为 可以 单点 上来 发现 只能 套餐 原始 套餐 中国 要是 知道 这样 别的 饮品 无语 味道 还好 烧鸭 好吃 上菜 速度 可以 忘记 环境 讲究 肚子饿 达到 大家乐 门口 之前 同事 这家 餐厅 生意 这条 里面 进去 一下 粤菜 下午茶 炒菜 基本 套餐 本来 想着 烧鹅 烧鸭 烧鸡 烧鹅 最后 一个 什么 茶树菇 炒鸡 什么 朋友 什么 牛肉 套餐 口味 还好 不难 特别 好吃 时例 真心 不错 好喝 下午 时分 路过 大家乐 吃点 东西 歇歇脚 他们 下午茶 时段 很多 选择 价格 10 几到 20 几都 半天 这个 菠萝油 套餐 本来 以为 正常 size 没想到 那个 mini 不好意思 一小块 味道 还行 火腿 特别 通心粉 卖相 好吃 唯一 OK 奶茶 华强北 这家 快活 华强北 地铁站 停远 一路 人才 到达 店面 面积 很大 中午 时分 超多人 就餐 想堂 等位 现场 专门 服务员 帮忙 点餐 然后 排队 买单 烧春鸡 一份 牛腩 一份 青菜 一份 叉烧饭 服务员 态度 不错 烧春鸡 味道 不错 叉烧 一如既往 牛腩 朋友 具体 味道 清楚 分量 很足 划算 两人 吃不完 一直 喜欢 大家乐 服务 每次 遇到 热情 服务员 心里 暖暖的 喜欢 大家乐 一哥 猪扒 这次 咖喱鸡 咖喱鸡 咖喱 浓郁 处理 不是 很腥 失望 品质 加强 米饭 挺好吃 虽然 个人 觉得 有点 接受 春节 期间 比较 位置 淘里 这次 大家乐 午餐 换成 一次性 餐具 粟米 炸鱼 趴饭 玉米 好吃 新鲜 甜甜的 基本 每次 这个 习惯 挺好吃 再配 一杯 奶茶 ... 服务态度 虽然 他们 一直 但是 上餐 速度 挺快 以后 还会 港式 茶餐厅 几年 有点 网红 竞品 落花流水 感觉 很多 茶餐厅 难以为继 不过 出品 模式 餐厅 一样 经营 比如 大家乐 中午 十一点半 左右 到乐 淘里 开始 没什么 很快 差不多 十二点 时候 基本上 没位 生意 相当 火爆 可能 华强北 地理位置 很大 关系 经过 改造 华强北 人气 不如 之前 而且 餐饮 大部分 放到 地下 商业 经营 所以 感觉 看上去 虽然 不是 人山人海 基本上 大部分 店铺 排队 人气 很旺 大家乐 外卖 终于 优惠 这么 天气 一只 一只 店里 时候 经常 看到 有人 这次 终于 玉米 好吃 一般般 猪扒 水平 外卖 真的 喜欢 猪扒 例汤 必点 好久没 大家乐 工作餐 最近 推送 看到 活动 下来 尝尝鲜 最近 大家乐 新品 不错 黑暗 料理 马来西亚 风味 米粉 真的 好喝 里面 丰富 大虾 新鲜 实在 很多 煮烂 海南 鸡饭 搭配 不错 鸡肉 不会 莲藕 不错 回来 大家乐 吃饭 节奏 培训 完毕 就近 吃饭 本来 联城 新天地 德克士 炸鸡 没想到 他们 家店 于是 就近 大家乐 烧春鸡 烧春鸡 套餐 烧鸡 皮脆 好吃 椒盐 一起 端上来 可以 自己 加味 玉米棒 有点 主食 份量 可乐 超大 很多 碎冰 粟米 炸鱼 套餐 还行 炸鱼 没什么 味道 普通 我们 时候 人不多 服务员 配齐 手套 自己 忙活 去取 总体 评价 三星 福田 口岸 路上 恰逢 饭点 于是 就近 连城 找个 地方 解决 这家 快餐店 内人 我们 这家 店内 面积 比较 宽敞 设有 洗手 自助 茶水 咖喱 牛腩饭 咖喱 味道 牛腩 肉质 一般 米饭 品相 不太好 海南 鸡饭 酱料 搭配 不太好 鸡肉 一般 牛肝菌 酱鸡 简直 灾难 ... 据说 耗时 很长 同桌 朋友 吃饱 做好 ... 看到 时候 已经 食欲 饭水放太多 黏糊 黏糊 芝士 很稀 牛肝菌 扒鸡 搭配 诡异 几口 ... 放弃 可能 恰好 点到 喜欢 套餐 以后 点餐 一些 大众 套餐 保险 一点 原本 计划 尝鲜 粤式 食府 茶点心 知道 清明节 调假 今天 10 30am 开门 办法 待会儿 上课 能够 来个 早餐 原本 想到 全家 便利店 解决 走到 会展中心 地下 连城 发现 这里 早餐 选择 大家乐 用餐 环境 还好 人不多 座位 宽阔 连城 走廊 卡座 早餐 牛扒 火腿 通粉 这里 套餐 感觉 比较 实惠 好像 东西 多一点 记忆 香港 大家乐 早餐 套餐 好像 那么 东西 连城 新天地 大家乐 浙礼 对面 这家 早餐 但是 性价比 不高 午餐 很多 套餐 基本上 30 左右 常点 烧腊 白切 之类 白切 可以 挺好吃 姜葱 味道 不错 分量 偏少 同事 香辣 贵妃 套餐 居然 搭配 一份 生菜 比较 叉烧 拼白切 而言 性价比 一点 以前 早晨 路过 总是 匆匆 从来 这里 坐下 慢慢 早餐 这次 一早 客户 附近 决定 不再 匆匆 同伴 相约 赶大早 出门 为了 坐下 吃个 慢悠悠 丰盛 早餐 套餐 有点 一时 知道 该选 什么 犹豫 半天 感叹 以前 错过 机会 好吃 早餐 最后 菠萝油 套餐 喜欢 菠萝油 鸡蛋 番茄 肉末 汤通粉 热咖啡 奶茶 幸福感 油然而生 戏真多 菠萝油 虽然 热乎乎 黄油 半软 半硬 感觉 但是 菠萝包 不知 过头 不够 新鲜 有点 过硬 口感 不佳 滑蛋 趁热 不错 再嫩点 更好 通粉 喜欢 酸酸 鲜鲜 咖啡 居然 不错 原来 欣赏 大家乐 烧春鸡 原来 早餐 值得 一试 可能 主要 还有 久违 不慌不忙 带来 满足感 完上 地面 看见 一束 晨光 城市 森林 穿过 心情 一整天 深圳 第一餐 晚餐 后要 继续 加班 公司 附近 随便 一家 作为 北方 真心 不惯 滋味 其他人 津津有味 肉质 比较 软嫩 颜色 可以 味道 这边 饭菜 特点 无所谓 充饥 而已 以后 地雷 店炸得 伤痕累累 时候 幸好 还有 大家乐 可以 填饱 肚子 套餐 米饭 质量 不错 玫瑰油 鸡饭照 香港 出品 虽然 逊色 不错 其它 烧味 可以 冬菇 肉饼 厚切 猪扒 贵妃 鸡饭 上海 陈醋 菜饭 不错 海南 鸡饭 一般 里面 不错 工作 午餐 时段 所以 赶出来 吃快餐 一份 不过 已经 提前 餐厅 不要 洋葱 但是 上餐 时候 发现 很多 洋葱 办法 只能 餐厅 服务 经理 过来 亲自 沟通 改后 送来 虽然 味道 不能 非常 好味 但是 猪扒 很大 肉质 已经 满足 好久没 大家乐 印象 一哥 猪扒 芝士 不过 实际 好像 区别 难道 点错 这个 什么 肉酱 炒饭 说实话 好吃 饿着肚子 觉得 一般般 之前 香港 同事 大家 乐都 半成品 他们 非常 鄙夷 这种 做法 至此 以后 大家乐 保留意见 大家乐 一日 之际 在于 原本 麦当劳 看到 大家乐 位置 这家 宏发 大厦 一楼 宝安 中心 地铁站 出来 很快 得到 环境 大家乐 装修 座椅 舒适 知道 是不是 因为 很早 所以 感觉 店里 特别 干净 服务 讲真 好像 需要 太多 服务 所以 直接 五星 菜品 牛扒 肉松 厚多士 24 牛扒 的确 不厚 味道 不错 口感 外面 很多 所谓 牛扒 好吃 滑蛋 感觉 火候 稍微 一点点 一点点 味道 不错 肉松 厚多士 肉松 多士 轻微 烤过 外皮 内里 松软 蛋包 吉列 猪扒 火腿 通粉 22.5 蛋包 淡淡的 黄油 外皮 脆脆 内里 松软 面包 新鲜 番茄 生菜 恰到 火候 鸡蛋 火腿 真的 hin 好吃 吉列 猪扒 切成 放进 通心粉 简直 别有 一番 风味 两份 早餐 咖啡 咖啡 起来 味道 可以 感觉 大家乐 早餐 挺不错 周末 感觉 挺棒 工作日 的话 可以 这个 时间 享受 而且 价格 不算 便宜 重新 装修 一开 起来 对面 茶餐厅 瞬间 人气 一直 喜欢 大家乐 上餐 价格 适中 每家店 味道 一样 觉得 珠海 婆婆 附近 最好 榨菜 猪扒 米粉 猪扒 真的 我常去 那家炸 米粉 汤底 一样 鸳鸯 好像 比例 每次 一样 水吧 服务员 水准 一样 点餐 态度 喜欢 他们 下午茶 早餐 装潢 后来 几次 整体 变得 更好 价格 没太多 变化 服务 保持 友好 猪扒 下午茶 必点 图片 没什么 感觉 但是 偶然 一次 觉得 这是 广东 肉夹馍 烘烤 硬硬 面包 下去 经历 层次 猪扒 洋葱 完美 融合 面包 硬感 好吃 意式 牛肝菌 酱鸡 很浓 juicy 切块 非常 软嫩 它家 奶茶 经常 虽然 喝多 重新 装修 亮堂 很多 座位 感觉 以前 舒适 马拉 炒饭 永远 挚爱 juicy 鸡皮 油亮 肉质 鲜嫩 炒饭 淡淡的 萨瓦迪卡 味儿 浇上 辣椒油 堪称 完美 咖喱 牛腩饭 牛腩 一般般 不如 添饭 茶餐厅 好吃 分量 不够 咖喱 只能 半碗 剩下 半碗 白饭 略显 尴尬 冰镇 奶茶 浓郁 恰到好处 冰爽 丝滑 大家乐 对于 一个 深圳 20 来说 有着 特殊 回忆 很多年 港式 茶餐厅 香时 它算出 转而 多年 慢慢 兴趣 特别 公司 那家 装修 卫生 一般 所以 很久没 光顾 它家 这次 这边 办事 看到 这家 店堂 整洁 进去 果然 不错 菜品 干净 食材 店堂 整洁 下次 如果 经过 好久没 大家乐 依旧 冲着 她家 冰镇 奶茶 工作日 午餐时间 大家乐 挤满 想要 找个 座位 实在 容易 芝士 一哥 猪扒 冰镇 奶茶 47 炒饭 我姐 喜欢 大家乐 猪扒 觉得 有种 扬州 炒饭 味道 起来 很香 觉得 还好 猪扒 不错 鲜嫩 多汁 偷偷 好几块 猪扒 炸虾 马拉 冰镇 奶茶 42.5 炸虾 一只 猪扒 一小块 加上 一小 辣味 白萝卜 泰式 炒饭 炒饭 觉得 一般 特别 好吃 主要 冲着 奶茶 服务 中午 就餐 时间 店员 收拾 桌子 厨房 来料 卸货 想要 找张 干净 桌子 吃个 实在 容易 期间 我们 这个 来料 科学 第一次 去宏 发店 这家 大家乐 很少 地方 完吉之岛 顺便来 下午茶 这家 真的 清静 可能 平日 关系 例牌 鸡翅 西多士配 柠茶 鸡翅 刚刚 蜜汁 入味 觉得 大家乐 鸡翅 地方 好不好 这家 鸡翅 不错 过年 坚持 开门 营业 已经 不错 表扬 一下 这个 宏发 购物广场 一楼 已经 开业 好几年 一段时间 重新 装修 这是 装修 以后 第一次 过来 感觉 装修 以后 空间 利用率 虽然 面积 桌椅 摆放 合理 一直 相信 大家乐 出品 集团 品质 保证 现在 过来 有利 免费送 还有 印花 所以 赶快 过来 重新 装修 大家乐 风格 简约 大气 喜欢 烧春鸡 标配 可乐 但是 感觉 碎冰 更好 但是 知道 为啥 现在 冰块 一般 吃不下 一只 一半 打包 一半 回家 哥哥 一次 春鸡 有点 这次 不错 外皮 很香 肉嫩 juice 其实 大家 环境 不错 服务员 态度 那么 然后 菜品 价格 一点 偏高 如果 第一次 可以 尝试 一下 但是 如果 第二次 可以 尝试 位置 位于 宝安 中心 地铁站 出口 右拐 方便 朋友家 附近 下午茶 小小 聚会 两个 进来 一下 这家 餐厅 比较 虽然 不少 但是 一点儿 不会 两个 下午茶 套餐 非常 超值 而且 一种 出品 不会 马虎 火候 味道 特别 喜欢 他家 西多士 蜜糖 心里 甜丝丝 开心 知道 这么 下午茶 场所 一定 经常 签到 痕迹 布置 执着 点评 任务 早餐 真的 经常 十点 开始 供应 午餐 比较 合适 不少 公公 婆婆 公园 小鸟 太极 会到 这儿 补充 能量 顺带 唠嗑 早餐 时段 天天 超值 套餐 有多士 奶茶 汤面 炒蛋 几天 中午 着实 知道 一份 烧鸭 五宝饭 外加 每日 例汤 烧鸭 味道 不错 当然 能够 正宗 港式 茶餐厅 经验 老道 中式 大厨 比较 需要 吐槽 一是 米饭 完全 烧腊 菜汁 浸透 米饭 变得 一点 米饭 看着 这软 一碟 白米 真心 泪奔 而是 每日 例汤 店家 推广 椰青 雪梨 猪骨 雪梨 切块 甜度 太高 椰青 味道 微乎其微 不是 看见 两块 指甲盖 大小 椰子 实在 折腾 椰子 何方 推出 一些 中式 碟饭 春季 开胃 系列 听闻 菠萝 梅子 京都 牛肉 人气 最高 下次 尝尝 顺祝 大家 周末 愉快 纯属 个人观点 不喜 好久没 大家乐 这次 路过 门口 时候 一个 泰式 炒饭 冬阴功 套餐 吸引 点餐 时候 告知 套餐 今日 已经 售罄 不是 周末 新品 这么 看来 试水 新品 不错 这款 马来 口味 米线 味道 特别 喜欢 东南亚 口味 朋友 一定 喜欢 每次 路过 机会 惦记 好久 今天 终于 味道 可以 普通 快餐 上餐 速度 服务态度 叉烧 四宝 套餐 可以 叉烧 味道 不错 整点 出售 烤鸡 不错 配上 现淋 调料 好吃 肉质 鲜嫩 赠送 一大 可乐 好久没 大家乐 吃过饭 今晚 突然 想点 一只 烧春鸡 店员 一捧 过来 已经 闻到 阵阵 烧鸡 香味 小孩 来时 很少 鸡腿 今天 忍不住 一只 鸡腿 怎么 烧春鸡 这么 好吃 证明 烧得 好吃 地点 喜荟城 一楼 布心 附近 好像 唯一 一家 大家 喜薈城 一樓 最靠近 水庫 那邊 出口 其實 實話 感覺 店裡面 裝飾 尤其 椅子 有點 時候 很少 因為 很少 走到 這邊 所以 知道 當時 人少 還是 一直 偏少 偶爾 知道 時候 還是 大家 放在 選餐 不過 一般 進來 不會店 好像 基本 每次 點湯 這次 實話 感覺 一般 知道 到底 什麼 問題 感覺 沒有 之前 好吃 可能 不是 同家店 每次 深圳 这边 附近 逛逛 喜荟城 必须 下午 没事 逛累 下午茶 经常 大家乐 下午茶 位置 比较 好找 直接 走到 喜荟 城门口 看到 口味 不错 服务 热情 特别 喜欢 他们 鸡翼 西多士 套餐 特别 大家乐 餐厅 喜荟 城店 矫情 小姐 总体 口味 笑脸 环境 笑脸 服务 笑脸 这次 失望 下午 不到 一个 超值 套餐 19 肉饼 咸蛋 但是 告知 肉饼 没蒸 需要 大概 30 分钟 因此 可以 更换 其他 套餐 .... well 我换 一个 什么 排饭 大概 10 分钟 首先 饭底 而且 米饭 然后 服务员 一下 答应 一份 第二份 好事 但是 米饭 依然 而且 吃不下 ... 恰好 隔壁 一个 妈妈 两个 小孩 这个 原来 米饭 夹生 .... 呵呵 可见 出品 检测 需要 改善 最后 整个 上面 几块 ... 服务 原来 周末 傍晚 大家乐 餐厅 爆满 服务员 全部 忙不过来 有点 .. ps 为什么 现在 红豆冰 桑心 位于 喜荟城 一楼 大门口 确实 方便 周边 人来 简食 不用 来来回回 上上下下 折腾 他们 团购 优惠 正价 套餐 基本上 30 以上 包括 中国 饭菜 算是 价位 比较 简餐 消费 普通人 哪能 天天 这么 不过 店里 活动 每天 限定 产品 优惠 基本上 属于 样子 每天 不同 套餐 折扣 比如 芝士 叉烧 之类 两个 一份 这个 套餐 下午茶 刚刚 两杯 柠檬茶 一根 粟米 一只 脆皮 烧春鸡 这次 外卖 体验 环境 服务 感觉 外卖 有点 缩水 之前 里面 饱满 一只 可能 是因为 出炉 原因 但是 这个 送到 热乎乎 那么 饱满 脆皮 质感 看来 以后 比较 许久 大家乐 之前 香港 大家乐 小火锅 满意 这次 感觉 两人 餐点 三人 分量 吼吼 真的 很难 上餐 速度 很快 面食 只有 乌冬面 有些 失落 意粉 烧鸡 烧鲜茄 乌冬面 烧肉 很嫩 好吃 乌冬 整体 较为 清淡 乌冬面 有些 偏软 乌冬 玉米粒 很甜 份量 番茄 奶茶 好喝 烧春鸡 童子鸡 表层 香香 但是 不够 木子 撕成 小块 小块 上些 胡椒粉 感觉 鸡胸肉 好吃 许多 昨晚 小朋友 一起 开心 一个 晚上 虽然 等待 比较 煎熬 优秀 毕竟 一般 不过 追不上 脚步 只能 做到 教会 长大 大家 努力 前来 一直 装修 今天 总算 装修 其实 喜欢 这家 快餐 挺好吃 很多 香港 阿伯 消磨 时间 啧啧 前面 还大聊 台独 港独 问题 哈哈 两个 地方 相互 看不顺眼 呵呵 希望 越来越 心里 去除 这个 想法 大家乐 奶茶 港味 原味 冰块 杯子 愿意 吃饱 一餐 电影 已经 13 在鸿展 中心 随便 吃点 看到 大家乐 场面 挺大 芝士 一哥 猪扒 主推 款式 芝士 不够 多较 猪扒 不香 整体 一般 端上来 看来 提前 有所准备 饮品 奶茶 可以 明炉 烧鸭 四宝饭 春哥 一般 饮料 咖啡 居然 要加 3.5 认为 咖啡 奶茶 同级 别的 饮品 中午 人较 好餐 牌子 放在 桌子 识别区 感应 服务员 自己 送餐 过来 这点 東門 逛街 肚子 大家 樂喝個 下午茶 下午茶 30 分開始 性價 比蠻 服務員 勤快 要是 看到 顧客 離桌 很快 過去 收拾 桌面 店裡 裝修 所以 環境 還是 不錯 點了 一個 燒雞翼 加西多士 外加 奶茶 雞翼 香嫩 奶茶 好喝 入口 牛扒 炒蛋 外加 奶茶 朋友 她講 貌似 口感 還不錯 店裡 白開水 辣椒 自己 需要 晚上 朋友 去练 瑜伽 朋友 下班 先吃个 时间 有点 选择 大家乐 这家 大家乐 好像 装修 以前 很多 出餐 真的 很快 完单 不一会儿 送过来 香辣 茄子 肉碎 不错 有配 中国 想换 其它 饮料 可以 但是 要加 不错 比较 中意 下午茶 好耐无黎 东门 过黎 返个 下午茶 几好 午饭 直奔 大家乐 今次 试下个 猪扒 同个 雪菜 米粉 加杯 可乐 一共 21 味道 有点 有点 猪扒 味道 可以 仲有 洋葱 同汁 猪扒 雪菜 米粉 几好 服务 以前 学校 午餐 东门 解决 最后 变成 一年 一次 东门 目的 新鲜 由于 停车费 打算 一下 然后 知道 干嘛 决定 东门 选择 一圈 大众 看到 大家乐 鸿展 商场 楼下 港式 茶餐厅 还有 星巴克 见到 大家乐 简陋 一间 服务员 快要 发烂 哈哈哈哈 特别 配餐 姑娘 可怜 这家 厨师 香港 人不怪 这么 香港 人来 这里 一个 海南 鸡饭 一个 猪扒 鸡肉 可能 太忙 一般般 不错 猪扒 冰冻 猪扒 味道 真的 好失 水准 反正 好吃 还好 底下 番茄 鸡蛋 奶茶 很赞 真的 不能 旺区 吃快餐 食物 真的 只能 填饱 肚子 真的 好久没 东门 这么 突然 发现 好久没 大家乐 下午茶 餐东 门店 永远 那么 多哈 服务 评价 毕竟 人太多 他们 忙不过来 出品 三份 那个 蜜糖 鸡翅 严重 缩水 真的 可怜 没什么 蜜糖 记得 以前 胡椒 整体 出品 相对 以前 来说 真的 逊色 好多 失望 知道 是不是 只是 这家 问题 今天 游玩 东门 来到 大家 品尝 这里 美食 这家 人气 菠萝 套餐 上菜 速度 挺快 套餐 总的来说 不错 菠萝包 表皮 酥脆 环境 不错 墙上 深圳 照片 回味 http www dianping com shop 32529713 review all http www dianping com shop 32529708 review all http www dianping com shop 8066618 review all http www dianping com shop 522511 review all http www dianping com shop 32529710 review all http www dianping com shop 1927966 review all http www dianping com shop 5685240 review all http www dianping com shop 11567079 review all http www dianping com shop 3300208 review all http www dianping com shop 5651555 review all http www dianping com shop 66375147 review all http www dianping com shop 40859282 review all http www dianping com shop 90313590 review all http www dianping com shop 9194697 review all http www dianping com shop 69732424 review all http www dianping com shop 67703783 review all http www dianping com shop 5587958 review all
In [535]:
import wordcloud
from PIL import Image
import numpy as np

mask = np.array(Image.open('pili.jpeg'))

wc = wordcloud.WordCloud(background_color="white", max_words=2000, font_path='/Library/Fonts/Songti.ttc', mask=mask)
wc.generate(text1) 
plt.figure(figsize=(50, 50))
plt.imshow(wc, interpolation='bilinear')
plt.axis("off")
plt.show()