This guided project project has the purpose of analyzing and seeing the aspects that may influence the SAT scores in New York city high schools. The project consists in cleaning, combining and analyzing several datasets related to the SAT scores of high schoolers from different boroughs. Calculating the average of each school and checking the attributes per school. As explained in the article:
The SAT, or Scholastic Aptitude Test, is a test that high schoolers take in the US before applying to college. Colleges take the test scores into account when making admissions decisions, so it's fairly important to do well on. The test is divided into 3 sections, each of which is scored out of 800 points. The total score is out of 2400 (although this has changed back and forth a few times, the scores in this dataset are out of 2400). High schools are often ranked by their average SAT scores, and high SAT scores are considered a sign of how good a school district is.
The analysis reaches to look into the different characteristics of the schools to see how gender, localization and race differences influence the average SAT scores of the schools, to check out if there are evidences of the SAT tests being unfair with racial groups in the US.
To make an analysis like it, we need to take a great variety of data. The data we are going to use is described bellow:
To make it easier to use, all the datasets were uploaded in my Github repository that can be found in this link.
And to complement our understanding about New York city, here are some background information to contextualize it better:
DNB
or District Borough Number;To start to learn about our datasets, we need to prepare the jupyter notebook with the libraries we are going to use. We are also going to change some default options so the information can be more clearly presented.
Lets import all libraries we need to clean, analyze and display the data.
import numpy as np
import pandas as pd
import matplotlib.pyplot as plt
import seaborn as sns
# showing the graphs inline
%matplotlib inline
To help the visualization of the information, we are going to change the default options.
# telling pandas to show all columns when asked
pd.set_option('display.max_columns', None)
# centering the image outputs
from IPython.core.display import HTML
HTML("""
<style>
.output_png {
display: table-cell;
text-align: center;
margin:auto;
}
.prompt
display:none;
}
}
</style>
""")
Now we are going to open our data from the Github repo and read it into pandas dataframes so we can start exploring it and cleaning it. First we are going to
# creating a list with the name of the csv files
csv_files = ['ap_2010.csv',
'class_size.csv',
'demographics.csv',
'graduation.csv',
'hs_directory.csv',
'math_test_results.csv',
'sat_results.csv',
'school_attendence.csv']
# populating the dataframes with the csv files from the repository
data = {}
for f in csv_files:
d = pd.read_csv('https://raw.githubusercontent.com/nathpignaton/guided_projects/main/nyc-sat-analysis/{}'.format(f))
# creating the key without the .csv in the name and storing the data
data[f.replace('.csv', '')] = d
# looking at the columns of each dataframe
for k in data.keys():
print('\n {} \n {}'.format(k, data[k].columns))
ap_2010 Index(['DBN', 'SchoolName', 'AP Test Takers ', 'Total Exams Taken', 'Number of Exams with scores 3 4 or 5'], dtype='object') class_size Index(['CSD', 'BOROUGH', 'SCHOOL CODE', 'SCHOOL NAME', 'GRADE ', 'PROGRAM TYPE', 'CORE SUBJECT (MS CORE and 9-12 ONLY)', 'CORE COURSE (MS CORE and 9-12 ONLY)', 'SERVICE CATEGORY(K-9* ONLY)', 'NUMBER OF STUDENTS / SEATS FILLED', 'NUMBER OF SECTIONS', 'AVERAGE CLASS SIZE', 'SIZE OF SMALLEST CLASS', 'SIZE OF LARGEST CLASS', 'DATA SOURCE', 'SCHOOLWIDE PUPIL-TEACHER RATIO'], dtype='object') demographics Index(['DBN', 'Name', 'schoolyear', 'fl_percent', 'frl_percent', 'total_enrollment', 'prek', 'k', 'grade1', 'grade2', 'grade3', 'grade4', 'grade5', 'grade6', 'grade7', 'grade8', 'grade9', 'grade10', 'grade11', 'grade12', 'ell_num', 'ell_percent', 'sped_num', 'sped_percent', 'ctt_num', 'selfcontained_num', 'asian_num', 'asian_per', 'black_num', 'black_per', 'hispanic_num', 'hispanic_per', 'white_num', 'white_per', 'male_num', 'male_per', 'female_num', 'female_per'], dtype='object') graduation Index(['Demographic', 'DBN', 'School Name', 'Cohort', 'Total Cohort', 'Total Grads - n', 'Total Grads - % of cohort', 'Total Regents - n', 'Total Regents - % of cohort', 'Total Regents - % of grads', 'Advanced Regents - n', 'Advanced Regents - % of cohort', 'Advanced Regents - % of grads', 'Regents w/o Advanced - n', 'Regents w/o Advanced - % of cohort', 'Regents w/o Advanced - % of grads', 'Local - n', 'Local - % of cohort', 'Local - % of grads', 'Still Enrolled - n', 'Still Enrolled - % of cohort', 'Dropped Out - n', 'Dropped Out - % of cohort'], dtype='object') hs_directory Index(['dbn', 'school_name', 'borough', 'building_code', 'phone_number', 'fax_number', 'grade_span_min', 'grade_span_max', 'expgrade_span_min', 'expgrade_span_max', 'bus', 'subway', 'primary_address_line_1', 'city', 'state_code', 'postcode', 'website', 'total_students', 'campus_name', 'school_type', 'overview_paragraph', 'program_highlights', 'language_classes', 'advancedplacement_courses', 'online_ap_courses', 'online_language_courses', 'extracurricular_activities', 'psal_sports_boys', 'psal_sports_girls', 'psal_sports_coed', 'school_sports', 'partner_cbo', 'partner_hospital', 'partner_highered', 'partner_cultural', 'partner_nonprofit', 'partner_corporate', 'partner_financial', 'partner_other', 'addtl_info1', 'addtl_info2', 'start_time', 'end_time', 'se_services', 'ell_programs', 'school_accessibility_description', 'number_programs', 'priority01', 'priority02', 'priority03', 'priority04', 'priority05', 'priority06', 'priority07', 'priority08', 'priority09', 'priority10', 'Location 1', 'Community Board', 'Council District', 'Census Tract', 'BIN', 'BBL', 'NTA'], dtype='object') math_test_results Index(['DBN', 'Grade', 'Year', 'Category', 'Number Tested', 'Mean Scale Score', 'Level 1 #', 'Level 1 %', 'Level 2 #', 'Level 2 %', 'Level 3 #', 'Level 3 %', 'Level 4 #', 'Level 4 %', 'Level 3+4 #', 'Level 3+4 %'], dtype='object') sat_results Index(['DBN', 'SCHOOL NAME', 'Num of SAT Test Takers', 'SAT Critical Reading Avg. Score', 'SAT Math Avg. Score', 'SAT Writing Avg. Score'], dtype='object') school_attendence Index(['District', 'YTD % Attendance (Avg)', 'YTD Enrollment(Avg)'], dtype='object')
Looking at our data we can see some things:
DBN
column;Before coming back to our dataframes, let's read the information in the survey txt files.
Now we are going to open our survey data and read it into pandas dataframes, almost in the same way we did before.
We're going to store each survey in a different dataframe, they'll be called all_survey
and d75_survey
, after it we'll concatenate both into one survey
dataframe. This files need a specific encoding to be read: windows-1252
.
# reading the files into dataframes
all_survey = pd.read_csv("https://raw.githubusercontent.com/nathpignaton/guided_projects/main/nyc-sat-analysis/survey_all.txt",
delimiter="\t", encoding="windows-1252")
d75_survey = pd.read_csv("https://raw.githubusercontent.com/nathpignaton/guided_projects/main/nyc-sat-analysis/survey_d75.txt",
delimiter="\t", encoding="windows-1252")
# concatenating both
survey = pd.concat([all_survey, d75_survey], axis=0)
print(survey.shape)
survey.head()
(1702, 2773)
dbn | bn | schoolname | d75 | studentssurveyed | highschool | schooltype | rr_s | rr_t | rr_p | N_s | N_t | N_p | nr_s | nr_t | nr_p | saf_p_11 | com_p_11 | eng_p_11 | aca_p_11 | saf_t_11 | com_t_11 | eng_t_11 | aca_t_11 | saf_s_11 | com_s_11 | eng_s_11 | aca_s_11 | saf_tot_11 | com_tot_11 | eng_tot_11 | aca_tot_11 | p_q2h | p_q7a | p_q7b | p_q7c | p_q7d | p_q8a | p_q8b | p_q8c | p_q8d | p_q8e | p_q8f | p_q2b | p_q2d | p_q2e | p_q2f | p_q2g | p_q3a | p_q3b | p_q4b | p_q4c | p_q11c | p_q2a | p_q2c | p_q3c | p_q6a | p_q6b | p_q11d | p_q11e | p_q5 | p_q4a | p_q4d | p_q4e | p_q11a | p_q11b | p_q11f | p_q1 | p_q3d | p_q9 | p_q10 | p_q12aa | p_q12ab | p_q12ac | p_q12ad | p_q12ba | p_q12bb | p_q12bc | p_q12bd | p_q1_1 | p_q1_2 | p_q1_3 | p_q1_4 | p_q1_5 | p_q1_6 | p_q1_7 | p_q1_8 | p_q1_9 | p_q1_10 | p_q1_11 | p_q1_12 | p_q1_13 | p_q1_14 | p_q2a_1 | p_q2a_2 | p_q2a_3 | p_q2a_4 | p_q2a_5 | p_q2b_1 | p_q2b_2 | p_q2b_3 | p_q2b_4 | p_q2b_5 | p_q2c_1 | p_q2c_2 | p_q2c_3 | p_q2c_4 | p_q2c_5 | p_q2d_1 | p_q2d_2 | p_q2d_3 | p_q2d_4 | p_q2d_5 | p_q2e_1 | p_q2e_2 | p_q2e_3 | p_q2e_4 | p_q2e_5 | p_q2f_1 | p_q2f_2 | p_q2f_3 | p_q2f_4 | p_q2f_5 | p_q2g_1 | p_q2g_2 | p_q2g_3 | p_q2g_4 | p_q2g_5 | p_q2h_1 | p_q2h_2 | p_q2h_3 | p_q2h_4 | p_q2h_5 | p_q3a_1 | p_q3a_2 | p_q3a_3 | p_q3a_4 | p_q3a_5 | p_q3b_1 | p_q3b_2 | p_q3b_3 | p_q3b_4 | p_q3b_5 | p_q3c_1 | p_q3c_2 | p_q3c_3 | p_q3c_4 | p_q3c_5 | p_q3d_1 | p_q3d_2 | p_q3d_3 | p_q3d_4 | p_q3d_5 | p_q4a_1 | p_q4a_2 | p_q4a_3 | p_q4a_4 | p_q4a_5 | p_q4b_1 | p_q4b_2 | p_q4b_3 | p_q4b_4 | p_q4b_5 | p_q4c_1 | p_q4c_2 | p_q4c_3 | p_q4c_4 | p_q4c_5 | p_q4d_1 | p_q4d_2 | p_q4d_3 | p_q4d_4 | p_q4d_5 | p_q4e_1 | p_q4e_2 | p_q4e_3 | p_q4e_4 | p_q4e_5 | p_q5a | p_q5b | p_q5c | p_q5d | p_q5e | p_q5f | p_q5g | p_q5h | p_q5i | p_q5j | p_q6a_1 | p_q6a_2 | p_q6a_3 | p_q6a_4 | p_q6a_5 | p_q6b_1 | p_q6b_2 | p_q6b_3 | p_q6b_4 | p_q6b_5 | p_q7a_1 | p_q7a_2 | p_q7a_3 | p_q7a_4 | p_q7a_5 | p_q7b_1 | p_q7b_2 | p_q7b_3 | p_q7b_4 | p_q7b_5 | p_q7c_1 | p_q7c_2 | p_q7c_3 | p_q7c_4 | p_q7c_5 | p_q7d_1 | p_q7d_2 | p_q7d_3 | p_q7d_4 | p_q7d_5 | p_q8a_1 | p_q8a_2 | p_q8a_3 | p_q8a_4 | p_q8a_5 | p_q8b_1 | p_q8b_2 | p_q8b_3 | p_q8b_4 | p_q8b_5 | p_q8c_1 | p_q8c_2 | p_q8c_3 | p_q8c_4 | p_q8c_5 | p_q8d_1 | p_q8d_2 | p_q8d_3 | p_q8d_4 | p_q8d_5 | p_q8e_1 | p_q8e_2 | p_q8e_3 | p_q8e_4 | p_q8e_5 | p_q8f_1 | p_q8f_2 | p_q8f_3 | p_q8f_4 | p_q8f_5 | p_q9_1 | p_q9_2 | p_q9_3 | p_q9_4 | p_q9_5 | p_q9_6 | p_q9_7 | p_q9_8 | p_q9_9 | p_q9_10 | p_q10a | p_q10b | p_q10c | p_q10d | p_q10e | p_q10f | p_q10g | p_q10h | p_q10i | p_q10j | p_q10k | p_q10l | p_q11a_1 | p_q11a_2 | p_q11a_3 | p_q11a_4 | p_q11b_1 | p_q11b_2 | p_q11b_3 | p_q11b_4 | p_q11c_1 | p_q11c_2 | p_q11c_3 | p_q11c_4 | p_q11d_1 | p_q11d_2 | p_q11d_3 | p_q11d_4 | p_q11e_1 | p_q11e_2 | p_q11e_3 | p_q11e_4 | p_q11f_1 | p_q11f_2 | p_q11f_3 | p_q11f_4 | p_q12aa_1 | p_q12aa_2 | p_q12aa_3 | p_q12aa_4 | p_q12aa_5 | p_q12ab_1 | p_q12ab_2 | p_q12ab_3 | p_q12ab_4 | p_q12ab_5 | p_q12ac_1 | p_q12ac_2 | p_q12ac_3 | p_q12ac_4 | p_q12ac_5 | p_q12ad_1 | p_q12ad_2 | p_q12ad_3 | p_q12ad_4 | p_q12ad_5 | p_q12ba_1 | p_q12ba_2 | p_q12ba_3 | p_q12ba_4 | p_q12ba_5 | p_q12bb_1 | p_q12bb_2 | p_q12bb_3 | p_q12bb_4 | p_q12bb_5 | p_q12bc_1 | p_q12bc_2 | p_q12bc_3 | p_q12bc_4 | p_q12bc_5 | p_q12bd_1 | p_q12bd_2 | p_q12bd_3 | p_q12bd_4 | p_q12bd_5 | p_N_q1_1 | p_N_q1_2 | p_N_q1_3 | p_N_q1_4 | p_N_q1_5 | p_N_q1_6 | p_N_q1_7 | p_N_q1_8 | p_N_q1_9 | p_N_q1_10 | p_N_q1_11 | p_N_q1_12 | p_N_q1_13 | p_N_q1_14 | p_N_q2a_1 | p_N_q2a_2 | p_N_q2a_3 | p_N_q2a_4 | p_N_q2a_5 | p_N_q2b_1 | p_N_q2b_2 | p_N_q2b_3 | p_N_q2b_4 | p_N_q2b_5 | p_N_q2c_1 | p_N_q2c_2 | p_N_q2c_3 | p_N_q2c_4 | p_N_q2c_5 | p_N_q2d_1 | p_N_q2d_2 | p_N_q2d_3 | p_N_q2d_4 | p_N_q2d_5 | p_N_q2e_1 | p_N_q2e_2 | p_N_q2e_3 | p_N_q2e_4 | p_N_q2e_5 | p_N_q2f_1 | p_N_q2f_2 | p_N_q2f_3 | p_N_q2f_4 | p_N_q2f_5 | p_N_q2g_1 | p_N_q2g_2 | p_N_q2g_3 | p_N_q2g_4 | p_N_q2g_5 | p_N_q2h_1 | p_N_q2h_2 | p_N_q2h_3 | p_N_q2h_4 | p_N_q2h_5 | p_N_q3a_1 | p_N_q3a_2 | p_N_q3a_3 | p_N_q3a_4 | p_N_q3a_5 | p_N_q3b_1 | p_N_q3b_2 | p_N_q3b_3 | p_N_q3b_4 | p_N_q3b_5 | p_N_q3c_1 | p_N_q3c_2 | p_N_q3c_3 | p_N_q3c_4 | p_N_q3c_5 | p_N_q3d_1 | p_N_q3d_2 | p_N_q3d_3 | p_N_q3d_4 | p_N_q3d_5 | p_N_q4a_1 | p_N_q4a_2 | p_N_q4a_3 | p_N_q4a_4 | p_N_q4a_5 | p_N_q4b_1 | p_N_q4b_2 | p_N_q4b_3 | p_N_q4b_4 | p_N_q4b_5 | p_N_q4c_1 | p_N_q4c_2 | p_N_q4c_3 | p_N_q4c_4 | p_N_q4c_5 | p_N_q4d_1 | p_N_q4d_2 | p_N_q4d_3 | p_N_q4d_4 | p_N_q4d_5 | p_N_q4e_1 | p_N_q4e_2 | p_N_q4e_3 | p_N_q4e_4 | p_N_q4e_5 | p_N_q5a | p_N_q5b | p_N_q5c | p_N_q5d | p_N_q5e | p_N_q5f | p_N_q5g | p_N_q5h | p_N_q5i | p_N_q5j | p_N_q6a_1 | p_N_q6a_2 | p_N_q6a_3 | p_N_q6a_4 | p_N_q6a_5 | p_N_q6b_1 | p_N_q6b_2 | p_N_q6b_3 | p_N_q6b_4 | p_N_q6b_5 | p_N_q7a_1 | p_N_q7a_2 | p_N_q7a_3 | p_N_q7a_4 | p_N_q7a_5 | p_N_q7b_1 | p_N_q7b_2 | p_N_q7b_3 | p_N_q7b_4 | p_N_q7b_5 | p_N_q7c_1 | p_N_q7c_2 | p_N_q7c_3 | p_N_q7c_4 | p_N_q7c_5 | p_N_q7d_1 | p_N_q7d_2 | p_N_q7d_3 | p_N_q7d_4 | p_N_q7d_5 | p_N_q8a_1 | p_N_q8a_2 | p_N_q8a_3 | p_N_q8a_4 | p_N_q8a_5 | p_N_q8b_1 | p_N_q8b_2 | p_N_q8b_3 | p_N_q8b_4 | p_N_q8b_5 | p_N_q8c_1 | p_N_q8c_2 | p_N_q8c_3 | p_N_q8c_4 | p_N_q8c_5 | p_N_q8d_1 | p_N_q8d_2 | p_N_q8d_3 | p_N_q8d_4 | p_N_q8d_5 | p_N_q8e_1 | p_N_q8e_2 | p_N_q8e_3 | p_N_q8e_4 | p_N_q8e_5 | p_N_q8f_1 | p_N_q8f_2 | p_N_q8f_3 | p_N_q8f_4 | p_N_q8f_5 | p_N_q9_1 | p_N_q9_2 | p_N_q9_3 | p_N_q9_4 | p_N_q9_5 | p_N_q9_6 | p_N_q9_7 | p_N_q9_8 | p_N_q9_9 | p_N_q9_10 | p_N_q10a | p_N_q10b | p_N_q10c | p_N_q10d | p_N_q10e | p_N_q10f | p_N_q10g | p_N_q10h | p_N_q10i | p_N_q10j | p_N_q10k | p_N_q10l | p_N_q11a_1 | p_N_q11a_2 | p_N_q11a_3 | p_N_q11a_4 | p_N_q11b_1 | p_N_q11b_2 | p_N_q11b_3 | p_N_q11b_4 | p_N_q11c_1 | p_N_q11c_2 | p_N_q11c_3 | p_N_q11c_4 | p_N_q11d_1 | p_N_q11d_2 | p_N_q11d_3 | p_N_q11d_4 | p_N_q11e_1 | p_N_q11e_2 | p_N_q11e_3 | p_N_q11e_4 | p_N_q11f_1 | p_N_q11f_2 | p_N_q11f_3 | p_N_q11f_4 | p_N_q12aa_1 | p_N_q12aa_2 | p_N_q12aa_3 | p_N_q12aa_4 | p_N_q12aa_5 | p_N_q12ab_1 | p_N_q12ab_2 | p_N_q12ab_3 | p_N_q12ab_4 | p_N_q12ab_5 | p_N_q12ac_1 | p_N_q12ac_2 | p_N_q12ac_3 | p_N_q12ac_4 | p_N_q12ac_5 | p_N_q12ad_1 | p_N_q12ad_2 | p_N_q12ad_3 | p_N_q12ad_4 | p_N_q12ad_5 | p_N_q12ba_1 | p_N_q12ba_2 | p_N_q12ba_3 | p_N_q12ba_4 | p_N_q12ba_5 | p_N_q12bb_1 | p_N_q12bb_2 | p_N_q12bb_3 | p_N_q12bb_4 | p_N_q12bb_5 | p_N_q12bc_1 | p_N_q12bc_2 | p_N_q12bc_3 | p_N_q12bc_4 | p_N_q12bc_5 | p_N_q12bd_1 | p_N_q12bd_2 | p_N_q12bd_3 | p_N_q12bd_4 | p_N_q12bd_5 | t_q6d | t_q6e | t_q6f | t_q11a | t_q11b | t_q11c | t_q11d | t_q11e | t_q11f | t_q11g | t_q11h | t_q11j | t_q11k | t_q11l | t_q11m | t_q11n | t_q11o | t_q1a | t_q1b | t_q1c | t_q1f | t_q1g | t_q6h | t_q8c | t_q10b | t_q10d | t_q10e | t_q4 | t_q5a | t_q5b | t_q5c | t_q6b | t_q6c | t_q7a | t_q7d | t_q7e | t_q8a | t_q8b | t_q11i | t_q1d | t_q1e | t_q2a | t_q2b | t_q2c | t_q2d | t_q2e | t_q2f | t_q3_1 | t_q3_2 | t_q6a | t_q6g | t_q6i | t_q6j | t_q6k | t_q6l | t_q7b | t_q7c | t_q6m | t_q9 | t_q10a | t_q10c | t_q12a | t_q12b | t_q12c | t_q12d | t_q13a | t_q13b | t_q13c | t_q13d | t_q14 | t_q15a | t_q15b | t_q15c | t_q15d | t_q15e | t_q15f | t_q1a_1 | t_q1a_2 | t_q1a_3 | t_q1a_4 | t_q1b_1 | t_q1b_2 | t_q1b_3 | t_q1b_4 | t_q1c_1 | t_q1c_2 | t_q1c_3 | t_q1c_4 | t_q1d_1 | t_q1d_2 | t_q1d_3 | t_q1d_4 | t_q1e_1 | t_q1e_2 | t_q1e_3 | t_q1e_4 | t_q1f_1 | t_q1f_2 | t_q1f_3 | t_q1f_4 | t_q1g_1 | t_q1g_2 | t_q1g_3 | t_q1g_4 | t_q2a_1 | t_q2a_2 | t_q2a_3 | t_q2a_4 | t_q2b_1 | t_q2b_2 | t_q2b_3 | t_q2b_4 | t_q2c_1 | t_q2c_2 | t_q2c_3 | t_q2c_4 | t_q2d_1 | t_q2d_2 | t_q2d_3 | t_q2d_4 | t_q2e_1 | t_q2e_2 | t_q2e_3 | t_q2e_4 | t_q2f_1 | t_q2f_2 | t_q2f_3 | t_q2f_4 | t_q3a_1 | t_q3a_2 | t_q3a_3 | t_q3b_1 | t_q3b_2 | t_q3b_3 | t_q3c_1 | t_q3c_2 | t_q3c_3 | t_q3d_1 | t_q3d_2 | t_q3d_3 | t_q3e_1 | t_q3e_2 | t_q3e_3 | t_q3f_1 | t_q3f_2 | t_q3f_3 | t_q3g_1 | t_q3g_2 | t_q3g_3 | t_q3h_1 | t_q3h_2 | t_q3h_3 | t_q3i_1 | t_q3i_2 | t_q3i_3 | t_q3j_1 | t_q3j_2 | t_q3j_3 | t_q4_1 | t_q4_2 | t_q4_3 | t_q4_4 | t_q5a_1 | t_q5a_2 | t_q5a_3 | t_q5a_4 | t_q5a_5 | t_q5b_1 | t_q5b_2 | t_q5b_3 | t_q5b_4 | t_q5b_5 | t_q5c_1 | t_q5c_2 | t_q5c_3 | t_q5c_4 | t_q5c_5 | t_q6a_1 | t_q6a_2 | t_q6a_3 | t_q6a_4 | t_q6b_1 | t_q6b_2 | t_q6b_3 | t_q6b_4 | t_q6c_1 | t_q6c_2 | t_q6c_3 | t_q6c_4 | t_q6d_1 | t_q6d_2 | t_q6d_3 | t_q6d_4 | t_q6e_1 | t_q6e_2 | t_q6e_3 | t_q6e_4 | t_q6f_1 | t_q6f_2 | t_q6f_3 | t_q6f_4 | t_q6g_1 | t_q6g_2 | t_q6g_3 | t_q6g_4 | t_q6h_1 | t_q6h_2 | t_q6h_3 | t_q6h_4 | t_q6i_1 | t_q6i_2 | t_q6i_3 | t_q6i_4 | t_q6j_1 | t_q6j_2 | t_q6j_3 | t_q6j_4 | t_q6k_1 | t_q6k_2 | t_q6k_3 | t_q6k_4 | t_q6l_1 | t_q6l_2 | t_q6l_3 | t_q6l_4 | t_q6m_1 | t_q6m_2 | t_q6m_3 | t_q6m_4 | t_q7a_1 | t_q7a_2 | t_q7a_3 | t_q7a_4 | t_q7a_5 | t_q7b_1 | t_q7b_2 | t_q7b_3 | t_q7b_4 | t_q7b_5 | t_q7c_1 | t_q7c_2 | t_q7c_3 | t_q7c_4 | t_q7c_5 | t_q7d_1 | t_q7d_2 | t_q7d_3 | t_q7d_4 | t_q7d_5 | t_q7e_1 | t_q7e_2 | t_q7e_3 | t_q7e_4 | t_q7e_5 | t_q8a_1 | t_q8a_2 | t_q8a_3 | t_q8a_4 | t_q8b_1 | t_q8b_2 | t_q8b_3 | t_q8b_4 | t_q8c_1 | t_q8c_2 | t_q8c_3 | t_q8c_4 | t_q9_1 | t_q9_2 | t_q9_3 | t_q9_4 | t_q9_5 | t_q10a_1 | t_q10a_2 | t_q10a_3 | t_q10a_4 | t_q10a_5 | t_q10a_6 | t_q10b_1 | t_q10b_2 | t_q10b_3 | t_q10b_4 | t_q10b_5 | t_q10b_6 | t_q10c_1 | t_q10c_2 | t_q10c_3 | t_q10c_4 | t_q10c_5 | t_q10c_6 | t_q10d_1 | t_q10d_2 | t_q10d_3 | t_q10d_4 | t_q10d_5 | t_q10d_6 | t_q10e_1 | t_q10e_2 | t_q10e_3 | t_q10e_4 | t_q10e_5 | t_q10e_6 | t_q11a_1 | t_q11a_2 | t_q11a_3 | t_q11a_4 | t_q11b_1 | t_q11b_2 | t_q11b_3 | t_q11b_4 | t_q11c_1 | t_q11c_2 | t_q11c_3 | t_q11c_4 | t_q11d_1 | t_q11d_2 | t_q11d_3 | t_q11d_4 | t_q11e_1 | t_q11e_2 | t_q11e_3 | t_q11e_4 | t_q11f_1 | t_q11f_2 | t_q11f_3 | t_q11f_4 | t_q11g_1 | t_q11g_2 | t_q11g_3 | t_q11g_4 | t_q11h_1 | t_q11h_2 | t_q11h_3 | t_q11h_4 | t_q11i_1 | t_q11i_2 | t_q11i_3 | t_q11i_4 | t_q11j_1 | t_q11j_2 | t_q11j_3 | t_q11j_4 | t_q11k_1 | t_q11k_2 | t_q11k_3 | t_q11k_4 | t_q11l_1 | t_q11l_2 | t_q11l_3 | t_q11l_4 | t_q11m_1 | t_q11m_2 | t_q11m_3 | t_q11m_4 | t_q11n_1 | t_q11n_2 | t_q11n_3 | t_q11n_4 | t_q11o_1 | t_q11o_2 | t_q11o_3 | t_q11o_4 | t_q12a_1 | t_q12a_2 | t_q12a_3 | t_q12a_4 | t_q12a_5 | t_q12b_1 | t_q12b_2 | t_q12b_3 | t_q12b_4 | t_q12b_5 | t_q12c_1 | t_q12c_2 | t_q12c_3 | t_q12c_4 | t_q12c_5 | t_q12d_1 | t_q12d_2 | t_q12d_3 | t_q12d_4 | t_q12d_5 | t_q13a_1 | t_q13a_2 | t_q13a_3 | t_q13a_4 | t_q13a_5 | t_q13b_1 | t_q13b_2 | t_q13b_3 | t_q13b_4 | t_q13b_5 | t_q13c_1 | t_q13c_2 | t_q13c_3 | t_q13c_4 | t_q13c_5 | t_q13d_1 | t_q13d_2 | t_q13d_3 | t_q13d_4 | t_q13d_5 | t_q14_1 | t_q14_2 | t_q14_3 | t_q14_4 | t_q14_5 | t_q15a_1 | t_q15a_2 | t_q15a_3 | t_q15a_4 | t_q15b_1 | t_q15b_2 | t_q15b_3 | t_q15b_4 | t_q15c_1 | t_q15c_2 | t_q15c_3 | t_q15c_4 | t_q15d_1 | t_q15d_2 | t_q15d_3 | t_q15d_4 | t_q15e_1 | t_q15e_2 | t_q15e_3 | t_q15e_4 | t_q15f_1 | t_q15f_2 | t_q15f_3 | t_q15f_4 | t_N_q1a_1 | t_N_q1a_2 | t_N_q1a_3 | t_N_q1a_4 | t_N_q1b_1 | t_N_q1b_2 | t_N_q1b_3 | t_N_q1b_4 | t_N_q1c_1 | t_N_q1c_2 | t_N_q1c_3 | t_N_q1c_4 | t_N_q1d_1 | t_N_q1d_2 | t_N_q1d_3 | t_N_q1d_4 | t_N_q1e_1 | t_N_q1e_2 | t_N_q1e_3 | t_N_q1e_4 | t_N_q1f_1 | t_N_q1f_2 | t_N_q1f_3 | t_N_q1f_4 | t_N_q1g_1 | t_N_q1g_2 | t_N_q1g_3 | t_N_q1g_4 | t_N_q2a_1 | t_N_q2a_2 | t_N_q2a_3 | t_N_q2a_4 | t_N_q2b_1 | t_N_q2b_2 | t_N_q2b_3 | t_N_q2b_4 | t_N_q2c_1 | t_N_q2c_2 | t_N_q2c_3 | t_N_q2c_4 | t_N_q2d_1 | t_N_q2d_2 | t_N_q2d_3 | t_N_q2d_4 | t_N_q2e_1 | t_N_q2e_2 | t_N_q2e_3 | t_N_q2e_4 | t_N_q2f_1 | t_N_q2f_2 | t_N_q2f_3 | t_N_q2f_4 | t_N_q3a_1 | t_N_q3a_2 | t_N_q3a_3 | t_N_q3b_1 | t_N_q3b_2 | t_N_q3b_3 | t_N_q3c_1 | t_N_q3c_2 | t_N_q3c_3 | t_N_q3d_1 | t_N_q3d_2 | t_N_q3d_3 | t_N_q3e_1 | t_N_q3e_2 | t_N_q3e_3 | t_N_q3f_1 | t_N_q3f_2 | t_N_q3f_3 | t_N_q3g_1 | t_N_q3g_2 | t_N_q3g_3 | t_N_q3h_1 | t_N_q3h_2 | t_N_q3h_3 | t_N_q3i_1 | t_N_q3i_2 | t_N_q3i_3 | t_N_q3j_1 | t_N_q3j_2 | t_N_q3j_3 | t_N_q4_1 | t_N_q4_2 | t_N_q4_3 | t_N_q4_4 | t_N_q5a_1 | t_N_q5a_2 | t_N_q5a_3 | t_N_q5a_4 | t_N_q5a_5 | t_N_q5b_1 | t_N_q5b_2 | t_N_q5b_3 | t_N_q5b_4 | t_N_q5b_5 | t_N_q5c_1 | t_N_q5c_2 | t_N_q5c_3 | t_N_q5c_4 | t_N_q5c_5 | t_N_q6a_1 | t_N_q6a_2 | t_N_q6a_3 | t_N_q6a_4 | t_N_q6b_1 | t_N_q6b_2 | t_N_q6b_3 | t_N_q6b_4 | t_N_q6c_1 | t_N_q6c_2 | t_N_q6c_3 | t_N_q6c_4 | t_N_q6d_1 | t_N_q6d_2 | t_N_q6d_3 | t_N_q6d_4 | t_N_q6e_1 | t_N_q6e_2 | t_N_q6e_3 | t_N_q6e_4 | t_N_q6f_1 | t_N_q6f_2 | t_N_q6f_3 | t_N_q6f_4 | t_N_q6g_1 | t_N_q6g_2 | t_N_q6g_3 | t_N_q6g_4 | t_N_q6h_1 | t_N_q6h_2 | t_N_q6h_3 | t_N_q6h_4 | t_N_q6i_1 | t_N_q6i_2 | t_N_q6i_3 | t_N_q6i_4 | t_N_q6j_1 | t_N_q6j_2 | t_N_q6j_3 | t_N_q6j_4 | t_N_q6k_1 | t_N_q6k_2 | t_N_q6k_3 | t_N_q6k_4 | t_N_q6l_1 | t_N_q6l_2 | t_N_q6l_3 | t_N_q6l_4 | t_N_q6m_1 | t_N_q6m_2 | t_N_q6m_3 | t_N_q6m_4 | t_N_q7a_1 | t_N_q7a_2 | t_N_q7a_3 | t_N_q7a_4 | t_N_q7a_5 | t_N_q7b_1 | t_N_q7b_2 | t_N_q7b_3 | t_N_q7b_4 | t_N_q7b_5 | t_N_q7c_1 | t_N_q7c_2 | t_N_q7c_3 | t_N_q7c_4 | t_N_q7c_5 | t_N_q7d_1 | t_N_q7d_2 | t_N_q7d_3 | t_N_q7d_4 | t_N_q7d_5 | t_N_q7e_1 | t_N_q7e_2 | t_N_q7e_3 | t_N_q7e_4 | t_N_q7e_5 | t_N_q8a_1 | t_N_q8a_2 | t_N_q8a_3 | t_N_q8a_4 | t_N_q8b_1 | t_N_q8b_2 | t_N_q8b_3 | t_N_q8b_4 | t_N_q8c_1 | t_N_q8c_2 | t_N_q8c_3 | t_N_q8c_4 | t_N_q9_1 | t_N_q9_2 | t_N_q9_3 | t_N_q9_4 | t_N_q9_5 | t_N_q10a_1 | t_N_q10a_2 | t_N_q10a_3 | t_N_q10a_4 | t_N_q10a_5 | t_N_q10a_6 | t_N_q10b_1 | t_N_q10b_2 | t_N_q10b_3 | t_N_q10b_4 | t_N_q10b_5 | t_N_q10b_6 | t_N_q10c_1 | t_N_q10c_2 | t_N_q10c_3 | t_N_q10c_4 | t_N_q10c_5 | t_N_q10c_6 | t_N_q10d_1 | t_N_q10d_2 | t_N_q10d_3 | t_N_q10d_4 | t_N_q10d_5 | t_N_q10d_6 | t_N_q10e_1 | t_N_q10e_2 | t_N_q10e_3 | t_N_q10e_4 | t_N_q10e_5 | t_N_q10e_6 | t_N_q11a_1 | t_N_q11a_2 | t_N_q11a_3 | t_N_q11a_4 | t_N_q11b_1 | t_N_q11b_2 | t_N_q11b_3 | t_N_q11b_4 | t_N_q11c_1 | t_N_q11c_2 | t_N_q11c_3 | t_N_q11c_4 | t_N_q11d_1 | t_N_q11d_2 | t_N_q11d_3 | t_N_q11d_4 | t_N_q11e_1 | t_N_q11e_2 | t_N_q11e_3 | t_N_q11e_4 | t_N_q11f_1 | t_N_q11f_2 | t_N_q11f_3 | t_N_q11f_4 | t_N_q11g_1 | t_N_q11g_2 | t_N_q11g_3 | t_N_q11g_4 | t_N_q11h_1 | t_N_q11h_2 | t_N_q11h_3 | t_N_q11h_4 | t_N_q11i_1 | t_N_q11i_2 | t_N_q11i_3 | t_N_q11i_4 | t_N_q11j_1 | t_N_q11j_2 | t_N_q11j_3 | t_N_q11j_4 | t_N_q11k_1 | t_N_q11k_2 | t_N_q11k_3 | t_N_q11k_4 | t_N_q11l_1 | t_N_q11l_2 | t_N_q11l_3 | t_N_q11l_4 | t_N_q11m_1 | t_N_q11m_2 | t_N_q11m_3 | t_N_q11m_4 | t_N_q11n_1 | t_N_q11n_2 | t_N_q11n_3 | t_N_q11n_4 | t_N_q11o_1 | t_N_q11o_2 | t_N_q11o_3 | t_N_q11o_4 | t_N_q12a_1 | t_N_q12a_2 | t_N_q12a_3 | t_N_q12a_4 | t_N_q12a_5 | t_N_q12b_1 | t_N_q12b_2 | t_N_q12b_3 | t_N_q12b_4 | t_N_q12b_5 | t_N_q12c_1 | t_N_q12c_2 | t_N_q12c_3 | t_N_q12c_4 | t_N_q12c_5 | t_N_q12d_1 | t_N_q12d_2 | t_N_q12d_3 | t_N_q12d_4 | t_N_q12d_5 | t_N_q13a_1 | t_N_q13a_2 | t_N_q13a_3 | t_N_q13a_4 | t_N_q13a_5 | t_N_q13b_1 | t_N_q13b_2 | t_N_q13b_3 | t_N_q13b_4 | t_N_q13b_5 | t_N_q13c_1 | t_N_q13c_2 | t_N_q13c_3 | t_N_q13c_4 | t_N_q13c_5 | t_N_q13d_1 | t_N_q13d_2 | t_N_q13d_3 | t_N_q13d_4 | t_N_q13d_5 | t_N_q14_1 | t_N_q14_2 | t_N_q14_3 | t_N_q14_4 | t_N_q14_5 | t_N_q15a_1 | t_N_q15a_2 | t_N_q15a_3 | t_N_q15a_4 | t_N_q15b_1 | t_N_q15b_2 | t_N_q15b_3 | t_N_q15b_4 | t_N_q15c_1 | t_N_q15c_2 | t_N_q15c_3 | t_N_q15c_4 | t_N_q15d_1 | t_N_q15d_2 | t_N_q15d_3 | t_N_q15d_4 | t_N_q15e_1 | t_N_q15e_2 | t_N_q15e_3 | t_N_q15e_4 | t_N_q15f_1 | t_N_q15f_2 | t_N_q15f_3 | t_N_q15f_4 | s_q6a | s_q6b | s_q6c | s_q12a | s_q12b | s_q12c | s_q13a | s_q13b | s_q13c | s_q13d | s_q13e | s_q13f | s_q13g | s_q14a | s_q14b | s_q14c | s_q14d | s_q14e | s_q14f | s_q14g | s_q2b | s_q4a | s_q4b | s_q8b | s_q8c | s_q8d | s_q2a | s_q2c | s_q5a | s_q5b | s_q6d | s_q6e | s_q6f | s_q6g | s_q6h | s_q9 | s_q10 | s_q11 | s_q3a | s_q3b | s_q3c | s_q3d | s_q3e | s_q3f | s_q3g | s_q3h | s_q3i | s_q7a | s_q7b | s_q1 | s_q8a | s_q1_1 | s_q1_2 | s_q1_3 | s_q1_4 | s_q1_5 | s_q1_6 | s_q1_7 | s_q2a_1 | s_q2a_2 | s_q2a_3 | s_q2a_4 | s_q2b_1 | s_q2b_2 | s_q2b_3 | s_q2b_4 | s_q2c_1 | s_q2c_2 | s_q2c_3 | s_q2c_4 | s_q3a_1 | s_q3a_2 | s_q3a_3 | s_q3a_4 | s_q3b_1 | s_q3b_2 | s_q3b_3 | s_q3b_4 | s_q3c_1 | s_q3c_2 | s_q3c_3 | s_q3c_4 | s_q3d_1 | s_q3d_2 | s_q3d_3 | s_q3d_4 | s_q3e_1 | s_q3e_2 | s_q3e_3 | s_q3e_4 | s_q3f_1 | s_q3f_2 | s_q3f_3 | s_q3f_4 | s_q3g_1 | s_q3g_2 | s_q3g_3 | s_q3g_4 | s_q3h_1 | s_q3h_2 | s_q3h_3 | s_q3h_4 | s_q3i_1 | s_q3i_2 | s_q3i_3 | s_q3i_4 | s_q4a_1 | s_q4a_2 | s_q4a_3 | s_q4a_4 | s_q4b_1 | s_q4b_2 | s_q4b_3 | s_q4b_4 | s_q5a_1 | s_q5a_2 | s_q5a_3 | s_q5a_4 | s_q5b_1 | s_q5b_2 | s_q5b_3 | s_q5b_4 | s_q6a_1 | s_q6a_2 | s_q6a_3 | s_q6a_4 | s_q6a_5 | s_q6b_1 | s_q6b_2 | s_q6b_3 | s_q6b_4 | s_q6b_5 | s_q6c_1 | s_q6c_2 | s_q6c_3 | s_q6c_4 | s_q6c_5 | s_q6d_1 | s_q6d_2 | s_q6d_3 | s_q6d_4 | s_q6d_5 | s_q6e_1 | s_q6e_2 | s_q6e_3 | s_q6e_4 | s_q6e_5 | s_q6f_1 | s_q6f_2 | s_q6f_3 | s_q6f_4 | s_q6f_5 | s_q6g_1 | s_q6g_2 | s_q6g_3 | s_q6g_4 | s_q6g_5 | s_q6h_1 | s_q6h_2 | s_q6h_3 | s_q6h_4 | s_q6h_5 | s_q7a_1 | s_q7a_2 | s_q7a_3 | s_q7a_4 | s_q7b_1 | s_q7b_2 | s_q7b_3 | s_q7b_4 | s_q8a_1 | s_q8a_2 | s_q8a_3 | s_q8a_4 | s_q8a_5 | s_q8b_1 | s_q8b_2 | s_q8b_3 | s_q8b_4 | s_q8b_5 | s_q8c_1 | s_q8c_2 | s_q8c_3 | s_q8c_4 | s_q8c_5 | s_q8d_1 | s_q8d_2 | s_q8d_3 | s_q8d_4 | s_q8d_5 | s_q9a_1 | s_q9a_2 | s_q9a_3 | s_q9b_1 | s_q9b_2 | s_q9b_3 | s_q9c_1 | s_q9c_2 | s_q9c_3 | s_q9d_1 | s_q9d_2 | s_q9d_3 | s_q9e_1 | s_q9e_2 | s_q9e_3 | s_q9f_1 | s_q9f_2 | s_q9f_3 | s_q9g_1 | s_q9g_2 | s_q9g_3 | s_q9h_1 | s_q9h_2 | s_q9h_3 | s_q10a_1 | s_q10a_2 | s_q10a_3 | s_q10b_1 | s_q10b_2 | s_q10b_3 | s_q10c_1 | s_q10c_2 | s_q10c_3 | s_q10d_1 | s_q10d_2 | s_q10d_3 | s_q10e_1 | s_q10e_2 | s_q10e_3 | s_q10f_1 | s_q10f_2 | s_q10f_3 | s_q10g_1 | s_q10g_2 | s_q10g_3 | s_q10h_1 | s_q10h_2 | s_q10h_3 | s_q11_1 | s_q11_2 | s_q11_3 | s_q11_4 | s_q12a_1 | s_q12a_2 | s_q12a_3 | s_q12a_4 | s_q12b_1 | s_q12b_2 | s_q12b_3 | s_q12b_4 | s_q12c_1 | s_q12c_2 | s_q12c_3 | s_q12c_4 | s_q13a_1 | s_q13a_2 | s_q13a_3 | s_q13a_4 | s_q13b_1 | s_q13b_2 | s_q13b_3 | s_q13b_4 | s_q13c_1 | s_q13c_2 | s_q13c_3 | s_q13c_4 | s_q13d_1 | s_q13d_2 | s_q13d_3 | s_q13d_4 | s_q13e_1 | s_q13e_2 | s_q13e_3 | s_q13e_4 | s_q13f_1 | s_q13f_2 | s_q13f_3 | s_q13f_4 | s_q13g_1 | s_q13g_2 | s_q13g_3 | s_q13g_4 | s_q14a_1 | s_q14a_2 | s_q14a_3 | s_q14a_4 | s_q14b_1 | s_q14b_2 | s_q14b_3 | s_q14b_4 | s_q14c_1 | s_q14c_2 | s_q14c_3 | s_q14c_4 | s_q14d_1 | s_q14d_2 | s_q14d_3 | s_q14d_4 | s_q14e_1 | s_q14e_2 | s_q14e_3 | s_q14e_4 | s_q14f_1 | s_q14f_2 | s_q14f_3 | s_q14f_4 | s_q14g_1 | s_q14g_2 | s_q14g_3 | s_q14g_4 | s_N_q1_1 | s_N_q1_2 | s_N_q1_3 | s_N_q1_4 | s_N_q1_5 | s_N_q1_6 | s_N_q1_7 | s_N_q2a_1 | s_N_q2a_2 | s_N_q2a_3 | s_N_q2a_4 | s_N_q2b_1 | s_N_q2b_2 | s_N_q2b_3 | s_N_q2b_4 | s_N_q2c_1 | s_N_q2c_2 | s_N_q2c_3 | s_N_q2c_4 | s_N_q3a_1 | s_N_q3a_2 | s_N_q3a_3 | s_N_q3a_4 | s_N_q3b_1 | s_N_q3b_2 | s_N_q3b_3 | s_N_q3b_4 | s_N_q3c_1 | s_N_q3c_2 | s_N_q3c_3 | s_N_q3c_4 | s_N_q3d_1 | s_N_q3d_2 | s_N_q3d_3 | s_N_q3d_4 | s_N_q3e_1 | s_N_q3e_2 | s_N_q3e_3 | s_N_q3e_4 | s_N_q3f_1 | s_N_q3f_2 | s_N_q3f_3 | s_N_q3f_4 | s_N_q3g_1 | s_N_q3g_2 | s_N_q3g_3 | s_N_q3g_4 | s_N_q3h_1 | s_N_q3h_2 | s_N_q3h_3 | s_N_q3h_4 | s_N_q3i_1 | s_N_q3i_2 | s_N_q3i_3 | s_N_q3i_4 | s_N_q4a_1 | s_N_q4a_2 | s_N_q4a_3 | s_N_q4a_4 | s_N_q4b_1 | s_N_q4b_2 | s_N_q4b_3 | s_N_q4b_4 | s_N_q5a_1 | s_N_q5a_2 | s_N_q5a_3 | s_N_q5a_4 | s_N_q5b_1 | s_N_q5b_2 | s_N_q5b_3 | s_N_q5b_4 | s_N_q6a_1 | s_N_q6a_2 | s_N_q6a_3 | s_N_q6a_4 | s_N_q6a_5 | s_N_q6b_1 | s_N_q6b_2 | s_N_q6b_3 | s_N_q6b_4 | s_N_q6b_5 | s_N_q6c_1 | s_N_q6c_2 | s_N_q6c_3 | s_N_q6c_4 | s_N_q6c_5 | s_N_q6d_1 | s_N_q6d_2 | s_N_q6d_3 | s_N_q6d_4 | s_N_q6d_5 | s_N_q6e_1 | s_N_q6e_2 | s_N_q6e_3 | s_N_q6e_4 | s_N_q6e_5 | s_N_q6f_1 | s_N_q6f_2 | s_N_q6f_3 | s_N_q6f_4 | s_N_q6f_5 | s_N_q6g_1 | s_N_q6g_2 | s_N_q6g_3 | s_N_q6g_4 | s_N_q6g_5 | s_N_q6h_1 | s_N_q6h_2 | s_N_q6h_3 | s_N_q6h_4 | s_N_q6h_5 | s_N_q7a_1 | s_N_q7a_2 | s_N_q7a_3 | s_N_q7a_4 | s_N_q7b_1 | s_N_q7b_2 | s_N_q7b_3 | s_N_q7b_4 | s_N_q8a_1 | s_N_q8a_2 | s_N_q8a_3 | s_N_q8a_4 | s_N_q8a_5 | s_N_q8b_1 | s_N_q8b_2 | s_N_q8b_3 | s_N_q8b_4 | s_N_q8b_5 | s_N_q8c_1 | s_N_q8c_2 | s_N_q8c_3 | s_N_q8c_4 | s_N_q8c_5 | s_N_q8d_1 | s_N_q8d_2 | s_N_q8d_3 | s_N_q8d_4 | s_N_q8d_5 | s_N_q9a_1 | s_N_q9a_2 | s_N_q9a_3 | s_N_q9b_1 | s_N_q9b_2 | s_N_q9b_3 | s_N_q9c_1 | s_N_q9c_2 | s_N_q9c_3 | s_N_q9d_1 | s_N_q9d_2 | s_N_q9d_3 | s_N_q9e_1 | s_N_q9e_2 | s_N_q9e_3 | s_N_q9f_1 | s_N_q9f_2 | s_N_q9f_3 | s_N_q9g_1 | s_N_q9g_2 | s_N_q9g_3 | s_N_q9h_1 | s_N_q9h_2 | s_N_q9h_3 | s_N_q10a_1 | s_N_q10a_2 | s_N_q10a_3 | s_N_q10b_1 | s_N_q10b_2 | s_N_q10b_3 | s_N_q10c_1 | s_N_q10c_2 | s_N_q10c_3 | s_N_q10d_1 | s_N_q10d_2 | s_N_q10d_3 | s_N_q10e_1 | s_N_q10e_2 | s_N_q10e_3 | s_N_q10f_1 | s_N_q10f_2 | s_N_q10f_3 | s_N_q10g_1 | s_N_q10g_2 | s_N_q10g_3 | s_N_q10h_1 | s_N_q10h_2 | s_N_q10h_3 | s_N_q11_1 | s_N_q11_2 | s_N_q11_3 | s_N_q11_4 | s_N_q12a_1 | s_N_q12a_2 | s_N_q12a_3 | s_N_q12a_4 | s_N_q12b_1 | s_N_q12b_2 | s_N_q12b_3 | s_N_q12b_4 | s_N_q12c_1 | s_N_q12c_2 | s_N_q12c_3 | s_N_q12c_4 | s_N_q13a_1 | s_N_q13a_2 | s_N_q13a_3 | s_N_q13a_4 | s_N_q13b_1 | s_N_q13b_2 | s_N_q13b_3 | s_N_q13b_4 | s_N_q13c_1 | s_N_q13c_2 | s_N_q13c_3 | s_N_q13c_4 | s_N_q13d_1 | s_N_q13d_2 | s_N_q13d_3 | s_N_q13d_4 | s_N_q13e_1 | s_N_q13e_2 | s_N_q13e_3 | s_N_q13e_4 | s_N_q13f_1 | s_N_q13f_2 | s_N_q13f_3 | s_N_q13f_4 | s_N_q13g_1 | s_N_q13g_2 | s_N_q13g_3 | s_N_q13g_4 | s_N_q14a_1 | s_N_q14a_2 | s_N_q14a_3 | s_N_q14a_4 | s_N_q14b_1 | s_N_q14b_2 | s_N_q14b_3 | s_N_q14b_4 | s_N_q14c_1 | s_N_q14c_2 | s_N_q14c_3 | s_N_q14c_4 | s_N_q14d_1 | s_N_q14d_2 | s_N_q14d_3 | s_N_q14d_4 | s_N_q14e_1 | s_N_q14e_2 | s_N_q14e_3 | s_N_q14e_4 | s_N_q14f_1 | s_N_q14f_2 | s_N_q14f_3 | s_N_q14f_4 | s_N_q14g_1 | s_N_q14g_2 | s_N_q14g_3 | s_N_q14g_4 | p_q1c | p_q1b | p_q1e | p_q1f | p_q6c | p_q12c | p_q1a | p_q1d | p_q3e | p_q6e | p_q7 | p_q12d | p_q1g | p_q6d | p_q6f | p_q6g | p_q6h | p_q12a | p_q12b | p_q12e | p_q12f | p_q13a | p_q13b | p_q13c | p_q13d | p_q14a | p_q14b | p_q14c | p_q14d | p_q1a_1 | p_q1a_2 | p_q1a_3 | p_q1a_4 | p_q1a_5 | p_q1b_1 | p_q1b_2 | p_q1b_3 | p_q1b_4 | p_q1b_5 | p_q1c_1 | p_q1c_2 | p_q1c_3 | p_q1c_4 | p_q1c_5 | p_q1d_1 | p_q1d_2 | p_q1d_3 | p_q1d_4 | p_q1d_5 | p_q1e_1 | p_q1e_2 | p_q1e_3 | p_q1e_4 | p_q1e_5 | p_q1f_1 | p_q1f_2 | p_q1f_3 | p_q1f_4 | p_q1f_5 | p_q1g_1 | p_q1g_2 | p_q1g_3 | p_q1g_4 | p_q1g_5 | p_q3e_1 | p_q3e_2 | p_q3e_3 | p_q3e_4 | p_q3e_5 | p_q5k | p_q5l | p_q5m | p_q5n | p_q6c_1 | p_q6c_2 | p_q6c_3 | p_q6c_4 | p_q6c_5 | p_q6d_1 | p_q6d_2 | p_q6d_3 | p_q6d_4 | p_q6d_5 | p_q6e_1 | p_q6e_2 | p_q6e_3 | p_q6e_4 | p_q6e_5 | p_q6f_1 | p_q6f_2 | p_q6f_3 | p_q6f_4 | p_q6f_5 | p_q6g_1 | p_q6g_2 | p_q6g_3 | p_q6g_4 | p_q6g_5 | p_q6h_1 | p_q6h_2 | p_q6h_3 | p_q6h_4 | p_q6h_5 | p_q7e | p_q7f | p_q7g | p_q7h | p_q7i | p_q7j | p_q7k | p_q7l | p_q7m | p_q7n | p_q9_11 | p_q9_12 | p_q9_13 | p_q9_14 | p_q9_15 | p_q10a_1 | p_q10a_2 | p_q10a_3 | p_q10a_4 | p_q10a_5 | p_q10b_1 | p_q10b_2 | p_q10b_3 | p_q10b_4 | p_q10b_5 | p_q10c_1 | p_q10c_2 | p_q10c_3 | p_q10c_4 | p_q10c_5 | p_q10d_1 | p_q10d_2 | p_q10d_3 | p_q10d_4 | p_q10d_5 | p_q10e_1 | p_q10e_2 | p_q10e_3 | p_q10e_4 | p_q10e_5 | p_q10f_1 | p_q10f_2 | p_q10f_3 | p_q10f_4 | p_q10f_5 | p_q11a_5 | p_q11b_5 | p_q11c_5 | p_q11d_5 | p_q11e_5 | p_q12a_1 | p_q12a_2 | p_q12a_3 | p_q12a_4 | p_q12b_1 | p_q12b_2 | p_q12b_3 | p_q12b_4 | p_q12c_1 | p_q12c_2 | p_q12c_3 | p_q12c_4 | p_q12d_1 | p_q12d_2 | p_q12d_3 | p_q12d_4 | p_q12e_1 | p_q12e_2 | p_q12e_3 | p_q12e_4 | p_q12f_1 | p_q12f_2 | p_q12f_3 | p_q12f_4 | p_q13a_1 | p_q13a_2 | p_q13a_3 | p_q13a_4 | p_q13a_5 | p_q13b_1 | p_q13b_2 | p_q13b_3 | p_q13b_4 | p_q13b_5 | p_q13c_1 | p_q13c_2 | p_q13c_3 | p_q13c_4 | p_q13c_5 | p_q13d_1 | p_q13d_2 | p_q13d_3 | p_q13d_4 | p_q13d_5 | p_q14a_1 | p_q14a_2 | p_q14a_3 | p_q14a_4 | p_q14a_5 | p_q14b_1 | p_q14b_2 | p_q14b_3 | p_q14b_4 | p_q14b_5 | p_q14c_1 | p_q14c_2 | p_q14c_3 | p_q14c_4 | p_q14c_5 | p_q14d_1 | p_q14d_2 | p_q14d_3 | p_q14d_4 | p_q14d_5 | p_N_q1a_1 | p_N_q1a_2 | p_N_q1a_3 | p_N_q1a_4 | p_N_q1a_5 | p_N_q1b_1 | p_N_q1b_2 | p_N_q1b_3 | p_N_q1b_4 | p_N_q1b_5 | p_N_q1c_1 | p_N_q1c_2 | p_N_q1c_3 | p_N_q1c_4 | p_N_q1c_5 | p_N_q1d_1 | p_N_q1d_2 | p_N_q1d_3 | p_N_q1d_4 | p_N_q1d_5 | p_N_q1e_1 | p_N_q1e_2 | p_N_q1e_3 | p_N_q1e_4 | p_N_q1e_5 | p_N_q1f_1 | p_N_q1f_2 | p_N_q1f_3 | p_N_q1f_4 | p_N_q1f_5 | p_N_q1g_1 | p_N_q1g_2 | p_N_q1g_3 | p_N_q1g_4 | p_N_q1g_5 | p_N_q3e_1 | p_N_q3e_2 | p_N_q3e_3 | p_N_q3e_4 | p_N_q3e_5 | p_N_q5k | p_N_q5l | p_N_q5m | p_N_q5n | p_N_q6c_1 | p_N_q6c_2 | p_N_q6c_3 | p_N_q6c_4 | p_N_q6c_5 | p_N_q6d_1 | p_N_q6d_2 | p_N_q6d_3 | p_N_q6d_4 | p_N_q6d_5 | p_N_q6e_1 | p_N_q6e_2 | p_N_q6e_3 | p_N_q6e_4 | p_N_q6e_5 | p_N_q6f_1 | p_N_q6f_2 | p_N_q6f_3 | p_N_q6f_4 | p_N_q6f_5 | p_N_q6g_1 | p_N_q6g_2 | p_N_q6g_3 | p_N_q6g_4 | p_N_q6g_5 | p_N_q6h_1 | p_N_q6h_2 | p_N_q6h_3 | p_N_q6h_4 | p_N_q6h_5 | p_N_q7a | p_N_q7b | p_N_q7c | p_N_q7d | p_N_q7e | p_N_q7f | p_N_q7g | p_N_q7h | p_N_q7i | p_N_q7j | p_N_q7k | p_N_q7l | p_N_q7m | p_N_q7n | p_N_q9_11 | p_N_q9_12 | p_N_q9_13 | p_N_q9_14 | p_N_q9_15 | p_N_q10a_1 | p_N_q10a_2 | p_N_q10a_3 | p_N_q10a_4 | p_N_q10a_5 | p_N_q10b_1 | p_N_q10b_2 | p_N_q10b_3 | p_N_q10b_4 | p_N_q10b_5 | p_N_q10c_1 | p_N_q10c_2 | p_N_q10c_3 | p_N_q10c_4 | p_N_q10c_5 | p_N_q10d_1 | p_N_q10d_2 | p_N_q10d_3 | p_N_q10d_4 | p_N_q10d_5 | p_N_q10e_1 | p_N_q10e_2 | p_N_q10e_3 | p_N_q10e_4 | p_N_q10e_5 | p_N_q10f_1 | p_N_q10f_2 | p_N_q10f_3 | p_N_q10f_4 | p_N_q10f_5 | p_N_q11a_5 | p_N_q11b_5 | p_N_q11c_5 | p_N_q11d_5 | p_N_q11e_5 | p_N_q12a_1 | p_N_q12a_2 | p_N_q12a_3 | p_N_q12a_4 | p_N_q12b_1 | p_N_q12b_2 | p_N_q12b_3 | p_N_q12b_4 | p_N_q12c_1 | p_N_q12c_2 | p_N_q12c_3 | p_N_q12c_4 | p_N_q12d_1 | p_N_q12d_2 | p_N_q12d_3 | p_N_q12d_4 | p_N_q12e_1 | p_N_q12e_2 | p_N_q12e_3 | p_N_q12e_4 | p_N_q12f_1 | p_N_q12f_2 | p_N_q12f_3 | p_N_q12f_4 | p_N_q13a_1 | p_N_q13a_2 | p_N_q13a_3 | p_N_q13a_4 | p_N_q13a_5 | p_N_q13b_1 | p_N_q13b_2 | p_N_q13b_3 | p_N_q13b_4 | p_N_q13b_5 | p_N_q13c_1 | p_N_q13c_2 | p_N_q13c_3 | p_N_q13c_4 | p_N_q13c_5 | p_N_q13d_1 | p_N_q13d_2 | p_N_q13d_3 | p_N_q13d_4 | p_N_q13d_5 | p_N_q14a_1 | p_N_q14a_2 | p_N_q14a_3 | p_N_q14a_4 | p_N_q14a_5 | p_N_q14b_1 | p_N_q14b_2 | p_N_q14b_3 | p_N_q14b_4 | p_N_q14b_5 | p_N_q14c_1 | p_N_q14c_2 | p_N_q14c_3 | p_N_q14c_4 | p_N_q14c_5 | p_N_q14d_1 | p_N_q14d_2 | p_N_q14d_3 | p_N_q14d_4 | p_N_q14d_5 | t_q13e | t_q13f | t_q13g | t_q13h | t_q13i | t_q13j | t_q13k | t_q13l | t_q13m | t_q13n | t_q12 | t_q10 | t_q7f | t_q16a | t_q16b | t_q16c | t_q16d | t_q17a | t_q17b | t_q17c | t_q17d | t_q17e | t_q17f | t_q3k_1 | t_q3k_2 | t_q3k_3 | t_q3l_1 | t_q3l_2 | t_q3l_3 | t_q7f_1 | t_q7f_2 | t_q7f_3 | t_q7f_4 | t_q7f_5 | t_q10_1 | t_q10_2 | t_q10_3 | t_q10_4 | t_q10_5 | t_q11a_5 | t_q11b_5 | t_q11c_5 | t_q11d_5 | t_q12_1 | t_q12_2 | t_q12_3 | t_q12_4 | t_q12_5 | t_q12_6 | t_q13e_1 | t_q13e_2 | t_q13e_3 | t_q13e_4 | t_q13f_1 | t_q13f_2 | t_q13f_3 | t_q13f_4 | t_q13g_1 | t_q13g_2 | t_q13g_3 | t_q13g_4 | t_q13h_1 | t_q13h_2 | t_q13h_3 | t_q13h_4 | t_q13i_1 | t_q13i_2 | t_q13i_3 | t_q13i_4 | t_q13j_1 | t_q13j_2 | t_q13j_3 | t_q13j_4 | t_q13k_1 | t_q13k_2 | t_q13k_3 | t_q13k_4 | t_q13l_1 | t_q13l_2 | t_q13l_3 | t_q13l_4 | t_q13m_1 | t_q13m_2 | t_q13m_3 | t_q13m_4 | t_q13n_1 | t_q13n_2 | t_q13n_3 | t_q13n_4 | t_q14_6 | t_q15a_5 | t_q15b_5 | t_q15c_5 | t_q15d_5 | t_q16a_1 | t_q16a_2 | t_q16a_3 | t_q16a_4 | t_q16a_5 | t_q16b_1 | t_q16b_2 | t_q16b_3 | t_q16b_4 | t_q16b_5 | t_q16c_1 | t_q16c_2 | t_q16c_3 | t_q16c_4 | t_q16c_5 | t_q16d_1 | t_q16d_2 | t_q16d_3 | t_q16d_4 | t_q16d_5 | t_q17a_1 | t_q17a_2 | t_q17a_3 | t_q17a_4 | t_q17b_1 | t_q17b_2 | t_q17b_3 | t_q17b_4 | t_q17c_1 | t_q17c_2 | t_q17c_3 | t_q17c_4 | t_q17d_1 | t_q17d_2 | t_q17d_3 | t_q17d_4 | t_q17e_1 | t_q17e_2 | t_q17e_3 | t_q17e_4 | t_q17f_1 | t_q17f_2 | t_q17f_3 | t_q17f_4 | t_N_q3k_1 | t_N_q3k_2 | t_N_q3k_3 | t_N_q3l_1 | t_N_q3l_2 | t_N_q3l_3 | t_N_q7f_1 | t_N_q7f_2 | t_N_q7f_3 | t_N_q7f_4 | t_N_q7f_5 | t_N_q10_1 | t_N_q10_2 | t_N_q10_3 | t_N_q10_4 | t_N_q10_5 | t_N_q11a_5 | t_N_q11b_5 | t_N_q11c_5 | t_N_q11d_5 | t_N_q12_1 | t_N_q12_2 | t_N_q12_3 | t_N_q12_4 | t_N_q12_5 | t_N_q12_6 | t_N_q13e_1 | t_N_q13e_2 | t_N_q13e_3 | t_N_q13e_4 | t_N_q13f_1 | t_N_q13f_2 | t_N_q13f_3 | t_N_q13f_4 | t_N_q13g_1 | t_N_q13g_2 | t_N_q13g_3 | t_N_q13g_4 | t_N_q13h_1 | t_N_q13h_2 | t_N_q13h_3 | t_N_q13h_4 | t_N_q13i_1 | t_N_q13i_2 | t_N_q13i_3 | t_N_q13i_4 | t_N_q13j_1 | t_N_q13j_2 | t_N_q13j_3 | t_N_q13j_4 | t_N_q13k_1 | t_N_q13k_2 | t_N_q13k_3 | t_N_q13k_4 | t_N_q13l_1 | t_N_q13l_2 | t_N_q13l_3 | t_N_q13l_4 | t_N_q13m_1 | t_N_q13m_2 | t_N_q13m_3 | t_N_q13m_4 | t_N_q13n_1 | t_N_q13n_2 | t_N_q13n_3 | t_N_q13n_4 | t_N_q14_6 | t_N_q15a_5 | t_N_q15b_5 | t_N_q15c_5 | t_N_q15d_5 | t_N_q16a_1 | t_N_q16a_2 | t_N_q16a_3 | t_N_q16a_4 | t_N_q16a_5 | t_N_q16b_1 | t_N_q16b_2 | t_N_q16b_3 | t_N_q16b_4 | t_N_q16b_5 | t_N_q16c_1 | t_N_q16c_2 | t_N_q16c_3 | t_N_q16c_4 | t_N_q16c_5 | t_N_q16d_1 | t_N_q16d_2 | t_N_q16d_3 | t_N_q16d_4 | t_N_q16d_5 | t_N_q17a_1 | t_N_q17a_2 | t_N_q17a_3 | t_N_q17a_4 | t_N_q17b_1 | t_N_q17b_2 | t_N_q17b_3 | t_N_q17b_4 | t_N_q17c_1 | t_N_q17c_2 | t_N_q17c_3 | t_N_q17c_4 | t_N_q17d_1 | t_N_q17d_2 | t_N_q17d_3 | t_N_q17d_4 | t_N_q17e_1 | t_N_q17e_2 | t_N_q17e_3 | t_N_q17e_4 | t_N_q17f_1 | t_N_q17f_2 | t_N_q17f_3 | t_N_q17f_4 | s_q5c | s_q11a | s_q11b | s_q11c | s_q12d | s_q12e | s_q12f | s_q12g | s_q1b | s_q7c | s_q7d | s_q1a | s_q1c | s_q5d | s_q5e | s_q5g | s_q8 | s_q2d | s_q2e | s_q2f | s_q2g | s_q5f | s_q14 | s_q1a_1 | s_q1a_2 | s_q1a_3 | s_q1a_4 | s_q1b_1 | s_q1b_2 | s_q1b_3 | s_q1b_4 | s_q1c_1 | s_q1c_2 | s_q1c_3 | s_q1c_4 | s_q2d_1 | s_q2d_2 | s_q2d_3 | s_q2d_4 | s_q2e_1 | s_q2e_2 | s_q2e_3 | s_q2e_4 | s_q2f_1 | s_q2f_2 | s_q2f_3 | s_q2f_4 | s_q2g_1 | s_q2g_2 | s_q2g_3 | s_q2g_4 | s_q5a_5 | s_q5b_5 | s_q5c_1 | s_q5c_2 | s_q5c_3 | s_q5c_4 | s_q5c_5 | s_q5d_1 | s_q5d_2 | s_q5d_3 | s_q5d_4 | s_q5d_5 | s_q5e_1 | s_q5e_2 | s_q5e_3 | s_q5e_4 | s_q5e_5 | s_q5f_1 | s_q5f_2 | s_q5f_3 | s_q5f_4 | s_q5f_5 | s_q5g_1 | s_q5g_2 | s_q5g_3 | s_q5g_4 | s_q5g_5 | s_q7a_5 | s_q7b_5 | s_q7c_1 | s_q7c_2 | s_q7c_3 | s_q7c_4 | s_q7c_5 | s_q7d_1 | s_q7d_2 | s_q7d_3 | s_q7d_4 | s_q7d_5 | s_q8e_1 | s_q8e_2 | s_q8e_3 | s_q8f_1 | s_q8f_2 | s_q8f_3 | s_q8g_1 | s_q8g_2 | s_q8g_3 | s_q8h_1 | s_q8h_2 | s_q8h_3 | s_q8i_1 | s_q8i_2 | s_q8i_3 | s_q8j_1 | s_q8j_2 | s_q8j_3 | s_q8k_1 | s_q8k_2 | s_q8k_3 | s_q8l_1 | s_q8l_2 | s_q8l_3 | s_q9i_1 | s_q9i_2 | s_q9i_3 | s_q9j_1 | s_q9j_2 | s_q9j_3 | s_q9k_1 | s_q9k_2 | s_q9k_3 | s_q9l_1 | s_q9l_2 | s_q9l_3 | s_q10_1 | s_q10_2 | s_q10_3 | s_q10_4 | s_q11a_1 | s_q11a_2 | s_q11a_3 | s_q11a_4 | s_q11b_1 | s_q11b_2 | s_q11b_3 | s_q11b_4 | s_q11c_1 | s_q11c_2 | s_q11c_3 | s_q11c_4 | s_q12d_1 | s_q12d_2 | s_q12d_3 | s_q12d_4 | s_q12e_1 | s_q12e_2 | s_q12e_3 | s_q12e_4 | s_q12f_1 | s_q12f_2 | s_q12f_3 | s_q12f_4 | s_q12g_1 | s_q12g_2 | s_q12g_3 | s_q12g_4 | s_q14_1 | s_q14_2 | s_q14_3 | s_q14_4 | s_q14_5 | s_q14_6 | s_q14_7 | s_q14_8 | s_q14_9 | s_q14_10 | s_q14_11 |
---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
0 | 01M015 | M015 | P.S. 015 Roberto Clemente | 0 | No | 0.0 | Elementary School | NaN | 88 | 60 | NaN | 22.0 | 90.0 | 0 | 25 | 150 | 8.5 | 7.6 | 7.5 | 7.8 | 7.5 | 7.8 | 7.6 | 7.9 | NaN | NaN | NaN | NaN | 8.0 | 7.7 | 7.5 | 7.9 | 8.0 | 8.2 | 8.3 | 7.5 | 7.9 | 6.8 | 8.7 | 9.7 | 8.7 | 9.9 | 9.9 | 7.7 | 8.3 | 7.9 | 8.1 | 7.5 | 7.3 | 6.7 | 7.6 | 7.9 | 7.5 | 8.0 | 7.4 | 8.7 | 6.3 | 6.6 | 7.6 | 7.6 | 7.4 | 7.8 | 7.4 | NaN | 8.3 | 7.5 | 7.7 | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | 7.0 | 9.0 | 14.0 | 19.0 | 14.0 | 19.0 | 16.0 | 0.0 | 1.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 47.0 | 48.0 | 6.0 | 0.0 | 0.0 | 40.0 | 50.0 | 9.0 | 0.0 | 1.0 | 38.0 | 51.0 | 8.0 | 3.0 | 0.0 | 53.0 | 43.0 | 1.0 | 2.0 | 0.0 | 46.0 | 47.0 | 5.0 | 2.0 | 0.0 | 45.0 | 47.0 | 5.0 | 0.0 | 3.0 | 44.0 | 35.0 | 16.0 | 2.0 | 2.0 | 49.0 | 43.0 | 6.0 | 1.0 | 1.0 | 36.0 | 35.0 | 16.0 | 8.0 | 5.0 | 31.0 | 34.0 | 15.0 | 14.0 | 6.0 | 44.0 | 31.0 | 15.0 | 8.0 | 1.0 | 33.0 | 36.0 | 22.0 | 7.0 | 2.0 | 35.0 | 53.0 | 4.0 | 2.0 | 6.0 | 33.0 | 49.0 | 14.0 | 0.0 | 3.0 | 36.0 | 52.0 | 8.0 | 0.0 | 3.0 | 34.0 | 46.0 | 13.0 | 1.0 | 6.0 | NaN | NaN | NaN | NaN | NaN | 34.0 | 18.0 | 21.0 | 6.0 | 0.0 | 37.0 | 7.0 | 52.0 | 13.0 | 34.0 | 20.0 | 45.0 | 22.0 | 6.0 | 7.0 | 16.0 | 38.0 | 5.0 | 0.0 | 41.0 | 39.0 | 54.0 | 2.0 | 1.0 | 3.0 | 38.0 | 57.0 | 2.0 | 0.0 | 2.0 | 33.0 | 51.0 | 5.0 | 6.0 | 6.0 | 43.0 | 50.0 | 4.0 | 1.0 | 1.0 | 32.0 | 32.0 | 11.0 | 9.0 | 16.0 | 61.0 | 17.0 | 2.0 | 3.0 | 16.0 | 71.0 | 5.0 | 1.0 | 0.0 | 24.0 | 60.0 | 14.0 | 1.0 | 5.0 | 21.0 | 82.0 | 2.0 | 0.0 | 0.0 | 15.0 | 83.0 | 4.0 | 0.0 | 0.0 | 13.0 | 10.0 | 23.0 | 21.0 | 12.0 | 6.0 | 8.0 | 6.0 | 6.0 | 10.0 | 0.0 | 62.0 | 33.0 | 7.0 | 54.0 | 3.0 | 2.0 | 62.0 | 12.0 | 7.0 | 37.0 | 1.0 | 1.0 | 56.0 | 40.0 | 3.0 | 1.0 | 38.0 | 49.0 | 12.0 | 1.0 | 43.0 | 43.0 | 12.0 | 2.0 | 42.0 | 47.0 | 10.0 | 1.0 | 43.0 | 46.0 | 9.0 | 2.0 | 47.0 | 43.0 | 6.0 | 5.0 | 18.0 | 40.0 | 19.0 | 3.0 | 21.0 | 22.0 | 33.0 | 11.0 | 3.0 | 30.0 | 20.0 | 48.0 | 9.0 | 3.0 | 20.0 | 23.0 | 47.0 | 6.0 | 3.0 | 21.0 | 19.0 | 30.0 | 14.0 | 6.0 | 31.0 | 16.0 | 33.0 | 11.0 | 7.0 | 33.0 | 18.0 | 35.0 | 10.0 | 6.0 | 31.0 | 19.0 | 34.0 | 10.0 | 8.0 | 29.0 | 6.0 | 8.0 | 12.0 | 16.0 | 12.0 | 16.0 | 14.0 | 0.0 | 1.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 42.0 | 43.0 | 5.0 | 0.0 | 0.0 | 34.0 | 43.0 | 8.0 | 0.0 | 1.0 | 33.0 | 45.0 | 7.0 | 3.0 | 0.0 | 46.0 | 37.0 | 1.0 | 2.0 | 0.0 | 39.0 | 40.0 | 4.0 | 2.0 | 0.0 | 40.0 | 41.0 | 4.0 | 0.0 | 3.0 | 38.0 | 30.0 | 14.0 | 2.0 | 2.0 | 42.0 | 37.0 | 5.0 | 1.0 | 1.0 | 32.0 | 31.0 | 14.0 | 7.0 | 4.0 | 26.0 | 29.0 | 13.0 | 12.0 | 5.0 | 38.0 | 27.0 | 13.0 | 7.0 | 1.0 | 29.0 | 31.0 | 19.0 | 6.0 | 2.0 | 31.0 | 47.0 | 4.0 | 2.0 | 5.0 | 29.0 | 43.0 | 12.0 | 0.0 | 3.0 | 32.0 | 46.0 | 7.0 | 0.0 | 3.0 | 28.0 | 38.0 | 11.0 | 1.0 | 5.0 | NaN | NaN | NaN | NaN | NaN | 31.0 | 16.0 | 19.0 | 5.0 | 0.0 | 33.0 | 6.0 | 47.0 | 12.0 | 31.0 | 18.0 | 40.0 | 19.0 | 5.0 | 6.0 | 13.0 | 31.0 | 4.0 | 0.0 | 33.0 | 35.0 | 49.0 | 2.0 | 1.0 | 3.0 | 34.0 | 51.0 | 2.0 | 0.0 | 2.0 | 28.0 | 44.0 | 4.0 | 5.0 | 5.0 | 31.0 | 36.0 | 3.0 | 1.0 | 1.0 | 27.0 | 27.0 | 9.0 | 8.0 | 14.0 | 53.0 | 15.0 | 2.0 | 3.0 | 14.0 | 60.0 | 4.0 | 1.0 | 0.0 | 20.0 | 52.0 | 12.0 | 1.0 | 4.0 | 18.0 | 70.0 | 2.0 | 0.0 | 0.0 | 13.0 | 70.0 | 3.0 | 0.0 | 0.0 | 11.0 | 5.0 | 12.0 | 11.0 | 6.0 | 3.0 | 4.0 | 3.0 | 3.0 | 5.0 | 0.0 | 56.0 | 30.0 | 6.0 | 49.0 | 3.0 | 2.0 | 56.0 | 11.0 | 6.0 | 33.0 | 1.0 | 1.0 | 50.0 | 36.0 | 3.0 | 1.0 | 33.0 | 42.0 | 10.0 | 1.0 | 38.0 | 38.0 | 11.0 | 2.0 | 37.0 | 42.0 | 9.0 | 1.0 | 38.0 | 41.0 | 8.0 | 2.0 | 41.0 | 38.0 | 5.0 | 4.0 | 12.0 | 27.0 | 13.0 | 2.0 | 14.0 | 14.0 | 21.0 | 7.0 | 2.0 | 19.0 | 13.0 | 31.0 | 6.0 | 2.0 | 13.0 | 14.0 | 29.0 | 4.0 | 2.0 | 13.0 | 12.0 | 19.0 | 9.0 | 4.0 | 20.0 | 10.0 | 20.0 | 7.0 | 4.0 | 20.0 | 11.0 | 22.0 | 6.0 | 4.0 | 19.0 | 12.0 | 21.0 | 6.0 | 5.0 | 18.0 | 8.3 | 7.9 | 8.1 | 6.0 | 6.3 | 7.9 | 6.8 | 5.2 | 8.1 | 6.5 | 6.8 | 9.3 | 7.6 | 7.5 | 8.4 | 7.8 | 8.6 | 8.6 | 8.6 | 8.3 | 7.8 | 7.9 | 7.3 | 7.5 | 7.0 | 7.3 | 7.4 | 5.9 | 8.4 | NaN | 8.4 | 8.9 | 8.7 | 7.3 | 6.3 | 6.8 | 7.0 | 7.0 | 8.6 | 8.0 | 7.9 | 7.8 | 7.5 | 8.1 | 7.5 | 8.3 | NaN | 8.8 | 6.7 | 7.7 | 8.1 | 9.2 | 8.2 | 9.2 | 9.2 | 6.2 | 6.8 | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | 62.0 | 33.0 | 5.0 | 0.0 | 62.0 | 33.0 | 5.0 | 0.0 | 62.0 | 24.0 | 14.0 | 0.0 | 40.0 | 60.0 | 0.0 | 0.0 | 48.0 | 43.0 | 10.0 | 0.0 | 43.0 | 48.0 | 10.0 | 0.0 | 48.0 | 43.0 | 10.0 | 0.0 | 38.0 | 57.0 | 5.0 | 0.0 | 29.0 | 67.0 | 5.0 | 0.0 | 43.0 | 57.0 | 0.0 | 0.0 | 38.0 | 48.0 | 14.0 | 0.0 | 52.0 | 43.0 | 5.0 | 0.0 | NaN | NaN | NaN | NaN | 45.0 | 27.0 | 18.0 | 5.0 | 14.0 | 59.0 | 36.0 | 27.0 | 23.0 | 27.0 | 32.0 | 27.0 | 0.0 | 0.0 | 82.0 | 50.0 | 14.0 | 32.0 | 27.0 | 9.0 | 59.0 | 95.0 | 0.0 | 0.0 | 0.0 | 32.0 | 59.0 | 50.0 | 59.0 | 0.0 | 10.0 | 57.0 | 33.0 | 0.0 | 67.0 | 19.0 | 14.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 100.0 | 62.0 | 29.0 | 10.0 | 0.0 | 0.0 | 35.0 | 60.0 | 5.0 | 0.0 | 67.0 | 33.0 | 0.0 | 0.0 | 67.0 | 29.0 | 5.0 | 0.0 | 52.0 | 43.0 | 5.0 | 0.0 | 37.0 | 63.0 | 0.0 | 0.0 | 47.0 | 47.0 | 5.0 | 0.0 | 48.0 | 48.0 | 5.0 | 0.0 | 33.0 | 52.0 | 14.0 | 0.0 | 76.0 | 24.0 | 0.0 | 0.0 | 45.0 | 55.0 | 0.0 | 0.0 | 80.0 | 15.0 | 5.0 | 0.0 | 75.0 | 25.0 | 0.0 | 0.0 | 62.0 | 38.0 | 0.0 | 0.0 | 33.0 | 57.0 | 5.0 | 5.0 | 0.0 | 24.0 | 43.0 | 29.0 | 5.0 | 0.0 | 24.0 | 57.0 | 19.0 | 0.0 | 0.0 | 14.0 | 57.0 | 24.0 | 0.0 | 5.0 | 19.0 | 71.0 | 5.0 | 5.0 | 0.0 | 30.0 | 50.0 | 20.0 | 0.0 | 20.0 | 70.0 | 10.0 | 0.0 | 29.0 | 67.0 | 5.0 | 0.0 | 5.0 | 14.0 | 52.0 | 24.0 | 5.0 | 62.0 | 14.0 | 14.0 | 5.0 | 0.0 | 5.0 | 19.0 | 10.0 | 43.0 | 19.0 | 0.0 | 10.0 | 29.0 | 24.0 | 24.0 | 14.0 | 5.0 | 5.0 | 14.0 | 19.0 | 48.0 | 14.0 | 0.0 | 5.0 | 5.0 | 33.0 | 38.0 | 10.0 | 5.0 | 10.0 | 5.0 | 70.0 | 25.0 | 0.0 | 14.0 | 62.0 | 24.0 | 0.0 | 43.0 | 52.0 | 5.0 | 0.0 | 0.0 | 19.0 | 57.0 | 24.0 | 0.0 | 52.0 | 38.0 | 10.0 | 0.0 | 5.0 | 48.0 | 48.0 | 5.0 | 85.0 | 10.0 | 0.0 | 14.0 | 76.0 | 10.0 | 0.0 | 57.0 | 43.0 | 0.0 | 0.0 | 0.0 | 0.0 | 20.0 | 80.0 | 0.0 | 5.0 | 62.0 | 33.0 | 25.0 | 75.0 | 0.0 | 0.0 | 0.0 | 0.0 | 48.0 | 52.0 | 33.0 | 67.0 | 0.0 | 0.0 | 59.0 | 41.0 | 0.0 | 0.0 | 5.0 | 24.0 | 10.0 | 10.0 | 52.0 | 0.0 | 29.0 | 5.0 | 14.0 | 52.0 | 0.0 | 29.0 | 10.0 | 14.0 | 48.0 | 0.0 | 24.0 | 14.0 | 14.0 | 48.0 | 0.0 | 19.0 | 19.0 | 33.0 | 29.0 | 0.0 | 5.0 | 29.0 | 38.0 | 29.0 | 0.0 | 10.0 | 24.0 | 33.0 | 33.0 | 0.0 | 14.0 | 29.0 | 33.0 | 24.0 | 0.0 | 15.0 | 50.0 | 25.0 | 10.0 | 33.0 | 57.0 | 5.0 | 5.0 | 50.0 | 45.0 | 5.0 | 0.0 | 30.0 | 60.0 | 10.0 | 0.0 | 52.0 | 48.0 | 0.0 | 0.0 | 57.0 | 43.0 | 0.0 | 0.0 | 57.0 | 43.0 | 0.0 | 0.0 | 13.0 | 7.0 | 1.0 | 0.0 | 13.0 | 7.0 | 1.0 | 0.0 | 13.0 | 5.0 | 3.0 | 0.0 | 8.0 | 12.0 | 0.0 | 0.0 | 10.0 | 9.0 | 2.0 | 0.0 | 9.0 | 10.0 | 2.0 | 0.0 | 10.0 | 9.0 | 2.0 | 0.0 | 8.0 | 12.0 | 1.0 | 0.0 | 6.0 | 14.0 | 1.0 | 0.0 | 9.0 | 12.0 | 0.0 | 0.0 | 8.0 | 10.0 | 3.0 | 0.0 | 11.0 | 9.0 | 1.0 | 0.0 | NaN | NaN | NaN | NaN | 10.0 | 6.0 | 4.0 | 1.0 | 3.0 | 13.0 | 8.0 | 6.0 | 5.0 | 6.0 | 7.0 | 6.0 | 0.0 | 0.0 | 18.0 | 11.0 | 3.0 | 7.0 | 6.0 | 2.0 | 13.0 | 21.0 | 0.0 | 0.0 | 0.0 | 7.0 | 13.0 | 11.0 | 13.0 | 0.0 | 2.0 | 12.0 | 7.0 | 0.0 | 14.0 | 4.0 | 3.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 21.0 | 13.0 | 6.0 | 2.0 | 0.0 | 0.0 | 7.0 | 12.0 | 1.0 | 0.0 | 14.0 | 7.0 | 0.0 | 0.0 | 14.0 | 6.0 | 1.0 | 0.0 | 11.0 | 9.0 | 1.0 | 0.0 | 7.0 | 12.0 | 0.0 | 0.0 | 9.0 | 9.0 | 1.0 | 0.0 | 10.0 | 10.0 | 1.0 | 0.0 | 7.0 | 11.0 | 3.0 | 0.0 | 16.0 | 5.0 | 0.0 | 0.0 | 9.0 | 11.0 | 0.0 | 0.0 | 16.0 | 3.0 | 1.0 | 0.0 | 15.0 | 5.0 | 0.0 | 0.0 | 13.0 | 8.0 | 0.0 | 0.0 | 7.0 | 12.0 | 1.0 | 1.0 | 0.0 | 5.0 | 9.0 | 6.0 | 1.0 | 0.0 | 5.0 | 12.0 | 4.0 | 0.0 | 0.0 | 3.0 | 12.0 | 5.0 | 0.0 | 1.0 | 4.0 | 15.0 | 1.0 | 1.0 | 0.0 | 6.0 | 10.0 | 4.0 | 0.0 | 4.0 | 14.0 | 2.0 | 0.0 | 6.0 | 14.0 | 1.0 | 0.0 | 1.0 | 3.0 | 11.0 | 5.0 | 1.0 | 13.0 | 3.0 | 3.0 | 1.0 | 0.0 | 1.0 | 4.0 | 2.0 | 9.0 | 4.0 | 0.0 | 2.0 | 6.0 | 5.0 | 5.0 | 3.0 | 1.0 | 1.0 | 3.0 | 4.0 | 10.0 | 3.0 | 0.0 | 1.0 | 1.0 | 7.0 | 8.0 | 2.0 | 1.0 | 2.0 | 1.0 | 14.0 | 5.0 | 0.0 | 3.0 | 13.0 | 5.0 | 0.0 | 9.0 | 11.0 | 1.0 | 0.0 | 0.0 | 4.0 | 12.0 | 5.0 | 0.0 | 11.0 | 8.0 | 2.0 | 0.0 | 1.0 | 10.0 | 10.0 | 1.0 | 17.0 | 2.0 | 0.0 | 3.0 | 16.0 | 2.0 | 0.0 | 12.0 | 9.0 | 0.0 | 0.0 | 0.0 | 0.0 | 4.0 | 16.0 | 0.0 | 1.0 | 13.0 | 7.0 | 5.0 | 15.0 | 0.0 | 0.0 | 0.0 | 0.0 | 10.0 | 11.0 | 7.0 | 14.0 | 0.0 | 0.0 | 10.0 | 7.0 | 0.0 | 0.0 | 1.0 | 5.0 | 2.0 | 2.0 | 11.0 | 0.0 | 6.0 | 1.0 | 3.0 | 11.0 | 0.0 | 6.0 | 2.0 | 3.0 | 10.0 | 0.0 | 5.0 | 3.0 | 3.0 | 10.0 | 0.0 | 4.0 | 4.0 | 7.0 | 6.0 | 0.0 | 1.0 | 6.0 | 8.0 | 6.0 | 0.0 | 2.0 | 5.0 | 7.0 | 7.0 | 0.0 | 3.0 | 6.0 | 7.0 | 5.0 | 0.0 | 3.0 | 10.0 | 5.0 | 2.0 | 7.0 | 12.0 | 1.0 | 1.0 | 10.0 | 9.0 | 1.0 | 0.0 | 6.0 | 12.0 | 2.0 | 0.0 | 11.0 | 10.0 | 0.0 | 0.0 | 12.0 | 9.0 | 0.0 | 0.0 | 12.0 | 9.0 | 0.0 | 0.0 | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN |
1 | 01M019 | M019 | P.S. 019 Asher Levy | 0 | No | 0.0 | Elementary School | NaN | 100 | 60 | NaN | 34.0 | 161.0 | 0 | 33 | 269 | 8.4 | 7.6 | 7.6 | 7.8 | 8.6 | 8.5 | 8.9 | 9.1 | NaN | NaN | NaN | NaN | 8.5 | 8.1 | 8.2 | 8.4 | 7.7 | 7.9 | 8.0 | 7.3 | 7.7 | 6.5 | 8.8 | 9.4 | 8.7 | 10.0 | 9.9 | 7.5 | 8.2 | 7.9 | 8.0 | 7.2 | 7.0 | 6.9 | 8.0 | 8.4 | 7.4 | 7.6 | 7.1 | 9.0 | 6.4 | 6.5 | 7.6 | 7.8 | 8.6 | 7.7 | 7.8 | NaN | 8.3 | 7.6 | 7.7 | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | 11.0 | 16.0 | 14.0 | 15.0 | 16.0 | 11.0 | 16.0 | 1.0 | 0.0 | 1.0 | 0.0 | 0.0 | 0.0 | 0.0 | 44.0 | 43.0 | 9.0 | 4.0 | 0.0 | 42.0 | 42.0 | 12.0 | 2.0 | 1.0 | 39.0 | 35.0 | 19.0 | 4.0 | 2.0 | 50.0 | 46.0 | 3.0 | 0.0 | 1.0 | 45.0 | 48.0 | 5.0 | 2.0 | 1.0 | 35.0 | 41.0 | 1.0 | 1.0 | 22.0 | 40.0 | 38.0 | 15.0 | 5.0 | 3.0 | 42.0 | 43.0 | 6.0 | 3.0 | 5.0 | 34.0 | 29.0 | 21.0 | 12.0 | 4.0 | 32.0 | 34.0 | 18.0 | 9.0 | 6.0 | 43.0 | 39.0 | 11.0 | 5.0 | 2.0 | 35.0 | 23.0 | 27.0 | 13.0 | 2.0 | 36.0 | 49.0 | 11.0 | 1.0 | 3.0 | 39.0 | 50.0 | 9.0 | 1.0 | 1.0 | 49.0 | 43.0 | 6.0 | 1.0 | 2.0 | 35.0 | 48.0 | 4.0 | 3.0 | 10.0 | NaN | NaN | NaN | NaN | NaN | 39.0 | 60.0 | 12.0 | 7.0 | 2.0 | 62.0 | 11.0 | 65.0 | 16.0 | 32.0 | 27.0 | 36.0 | 25.0 | 6.0 | 6.0 | 18.0 | 27.0 | 1.0 | 0.0 | 54.0 | 41.0 | 48.0 | 7.0 | 3.0 | 1.0 | 45.0 | 43.0 | 6.0 | 3.0 | 3.0 | 33.0 | 43.0 | 11.0 | 3.0 | 10.0 | 42.0 | 37.0 | 11.0 | 1.0 | 9.0 | 25.0 | 34.0 | 6.0 | 12.0 | 23.0 | 59.0 | 13.0 | 3.0 | 3.0 | 23.0 | 69.0 | 5.0 | 3.0 | 1.0 | 23.0 | 55.0 | 8.0 | 3.0 | 5.0 | 29.0 | 72.0 | 0.0 | 0.0 | 0.0 | 28.0 | 69.0 | 1.0 | 1.0 | 0.0 | 30.0 | 9.0 | 13.0 | 17.0 | 12.0 | 9.0 | 7.0 | 2.0 | 20.0 | 10.0 | 1.0 | 47.0 | 65.0 | 14.0 | 61.0 | 14.0 | 10.0 | 47.0 | 20.0 | 11.0 | 52.0 | 2.0 | 1.0 | 57.0 | 38.0 | 4.0 | 1.0 | 42.0 | 46.0 | 10.0 | 2.0 | 39.0 | 47.0 | 12.0 | 2.0 | 43.0 | 44.0 | 13.0 | 1.0 | 44.0 | 47.0 | 8.0 | 1.0 | 44.0 | 45.0 | 9.0 | 1.0 | 15.0 | 36.0 | 18.0 | 4.0 | 26.0 | 15.0 | 36.0 | 11.0 | 6.0 | 33.0 | 18.0 | 40.0 | 14.0 | 4.0 | 25.0 | 21.0 | 36.0 | 17.0 | 3.0 | 23.0 | 12.0 | 28.0 | 23.0 | 6.0 | 32.0 | 11.0 | 28.0 | 20.0 | 8.0 | 34.0 | 11.0 | 34.0 | 17.0 | 5.0 | 32.0 | 15.0 | 28.0 | 21.0 | 5.0 | 31.0 | 17.0 | 25.0 | 23.0 | 24.0 | 25.0 | 17.0 | 26.0 | 1.0 | 0.0 | 1.0 | 0.0 | 0.0 | 0.0 | 0.0 | 71.0 | 69.0 | 14.0 | 7.0 | 0.0 | 68.0 | 68.0 | 19.0 | 4.0 | 2.0 | 63.0 | 57.0 | 31.0 | 6.0 | 4.0 | 80.0 | 73.0 | 5.0 | 0.0 | 2.0 | 71.0 | 76.0 | 8.0 | 3.0 | 1.0 | 55.0 | 65.0 | 2.0 | 2.0 | 34.0 | 63.0 | 59.0 | 23.0 | 8.0 | 4.0 | 65.0 | 66.0 | 9.0 | 5.0 | 8.0 | 55.0 | 47.0 | 34.0 | 19.0 | 6.0 | 51.0 | 54.0 | 29.0 | 14.0 | 10.0 | 68.0 | 62.0 | 18.0 | 8.0 | 3.0 | 56.0 | 37.0 | 44.0 | 21.0 | 3.0 | 58.0 | 79.0 | 17.0 | 2.0 | 5.0 | 62.0 | 80.0 | 14.0 | 1.0 | 2.0 | 79.0 | 69.0 | 9.0 | 1.0 | 3.0 | 56.0 | 77.0 | 6.0 | 4.0 | 16.0 | NaN | NaN | NaN | NaN | NaN | 62.0 | 97.0 | 20.0 | 12.0 | 4.0 | 100.0 | 17.0 | 104.0 | 26.0 | 52.0 | 43.0 | 57.0 | 39.0 | 9.0 | 10.0 | 27.0 | 41.0 | 2.0 | 0.0 | 82.0 | 64.0 | 75.0 | 11.0 | 5.0 | 1.0 | 70.0 | 68.0 | 10.0 | 5.0 | 4.0 | 52.0 | 67.0 | 17.0 | 5.0 | 16.0 | 49.0 | 43.0 | 13.0 | 1.0 | 10.0 | 39.0 | 53.0 | 10.0 | 18.0 | 36.0 | 92.0 | 20.0 | 5.0 | 4.0 | 36.0 | 106.0 | 7.0 | 5.0 | 1.0 | 35.0 | 86.0 | 13.0 | 4.0 | 7.0 | 45.0 | 110.0 | 0.0 | 0.0 | 0.0 | 43.0 | 106.0 | 1.0 | 1.0 | 0.0 | 46.0 | 11.0 | 16.0 | 21.0 | 15.0 | 11.0 | 9.0 | 2.0 | 25.0 | 12.0 | 1.0 | 76.0 | 105.0 | 22.0 | 99.0 | 23.0 | 16.0 | 75.0 | 33.0 | 18.0 | 83.0 | 4.0 | 2.0 | 89.0 | 59.0 | 7.0 | 2.0 | 66.0 | 72.0 | 16.0 | 3.0 | 62.0 | 74.0 | 19.0 | 3.0 | 68.0 | 70.0 | 20.0 | 1.0 | 69.0 | 75.0 | 13.0 | 1.0 | 70.0 | 72.0 | 15.0 | 2.0 | 21.0 | 49.0 | 25.0 | 6.0 | 36.0 | 20.0 | 49.0 | 15.0 | 8.0 | 45.0 | 24.0 | 55.0 | 19.0 | 5.0 | 34.0 | 29.0 | 50.0 | 23.0 | 4.0 | 31.0 | 16.0 | 37.0 | 30.0 | 8.0 | 42.0 | 14.0 | 37.0 | 26.0 | 10.0 | 45.0 | 15.0 | 45.0 | 23.0 | 7.0 | 43.0 | 19.0 | 37.0 | 27.0 | 7.0 | 41.0 | 9.5 | 9.1 | 9.2 | 8.0 | 8.5 | 9.0 | 8.1 | 7.5 | 9.0 | 7.1 | 7.2 | 9.8 | 8.8 | 8.4 | 9.8 | 8.9 | 8.9 | 9.3 | 9.4 | 8.4 | 8.8 | 8.5 | 8.6 | 8.9 | 8.4 | 7.3 | 7.2 | 7.9 | 9.1 | 9.6 | 9.5 | 8.6 | 8.8 | 8.8 | 8.8 | 8.6 | 8.8 | 9.0 | 9.2 | 9.5 | 8.7 | 9.5 | 9.7 | 9.6 | 9.2 | 9.2 | NaN | 9.8 | 5.8 | 8.6 | 9.2 | 9.3 | 9.6 | 9.6 | 9.8 | 8.2 | 8.8 | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | 85.0 | 12.0 | 0.0 | 3.0 | 91.0 | 3.0 | 3.0 | 3.0 | 68.0 | 24.0 | 3.0 | 6.0 | 85.0 | 15.0 | 0.0 | 0.0 | 79.0 | 12.0 | 0.0 | 9.0 | 79.0 | 12.0 | 3.0 | 6.0 | 68.0 | 26.0 | 0.0 | 6.0 | 88.0 | 9.0 | 3.0 | 0.0 | 91.0 | 9.0 | 0.0 | 0.0 | 91.0 | 6.0 | 3.0 | 0.0 | 82.0 | 15.0 | 0.0 | 3.0 | 85.0 | 9.0 | 3.0 | 3.0 | NaN | NaN | NaN | NaN | 9.0 | 65.0 | 24.0 | 88.0 | 6.0 | 3.0 | 6.0 | 18.0 | 74.0 | 47.0 | 0.0 | 47.0 | 0.0 | 0.0 | 97.0 | 94.0 | 3.0 | 0.0 | 59.0 | 0.0 | 38.0 | 97.0 | 0.0 | 0.0 | 3.0 | 21.0 | 74.0 | 56.0 | 47.0 | 6.0 | 48.0 | 42.0 | 6.0 | 3.0 | 85.0 | 6.0 | 6.0 | 3.0 | 0.0 | 91.0 | 6.0 | 3.0 | 0.0 | 0.0 | 88.0 | 9.0 | 3.0 | 0.0 | 0.0 | 71.0 | 21.0 | 6.0 | 3.0 | 74.0 | 15.0 | 9.0 | 3.0 | 74.0 | 21.0 | 3.0 | 3.0 | 85.0 | 15.0 | 0.0 | 0.0 | 76.0 | 21.0 | 3.0 | 0.0 | 79.0 | 18.0 | 3.0 | 0.0 | 79.0 | 18.0 | 3.0 | 0.0 | 70.0 | 24.0 | 0.0 | 6.0 | 88.0 | 6.0 | 3.0 | 3.0 | 91.0 | 6.0 | 3.0 | 0.0 | 91.0 | 6.0 | 3.0 | 0.0 | 94.0 | 6.0 | 0.0 | 0.0 | 85.0 | 9.0 | 6.0 | 0.0 | 70.0 | 21.0 | 3.0 | 3.0 | 3.0 | 67.0 | 15.0 | 9.0 | 6.0 | 3.0 | 73.0 | 18.0 | 0.0 | 6.0 | 3.0 | 67.0 | 24.0 | 6.0 | 0.0 | 3.0 | 67.0 | 21.0 | 9.0 | 0.0 | 3.0 | 68.0 | 29.0 | 3.0 | 0.0 | 74.0 | 24.0 | 3.0 | 0.0 | 74.0 | 21.0 | 6.0 | 0.0 | 3.0 | 6.0 | 3.0 | 78.0 | 9.0 | 74.0 | 21.0 | 3.0 | 0.0 | 0.0 | 3.0 | 24.0 | 32.0 | 35.0 | 6.0 | 0.0 | 3.0 | 38.0 | 18.0 | 32.0 | 6.0 | 0.0 | 6.0 | 21.0 | 12.0 | 47.0 | 15.0 | 0.0 | 6.0 | 21.0 | 12.0 | 44.0 | 12.0 | 3.0 | 9.0 | 50.0 | 41.0 | 9.0 | 0.0 | 64.0 | 30.0 | 3.0 | 3.0 | 74.0 | 24.0 | 3.0 | 0.0 | 3.0 | 6.0 | 35.0 | 56.0 | 0.0 | 12.0 | 53.0 | 35.0 | 3.0 | 3.0 | 15.0 | 79.0 | 38.0 | 41.0 | 15.0 | 6.0 | 29.0 | 59.0 | 9.0 | 3.0 | 85.0 | 9.0 | 3.0 | 3.0 | 0.0 | 0.0 | 6.0 | 94.0 | 0.0 | 3.0 | 29.0 | 68.0 | 68.0 | 24.0 | 3.0 | 6.0 | 0.0 | 0.0 | 6.0 | 94.0 | 74.0 | 24.0 | 0.0 | 3.0 | 72.0 | 21.0 | 7.0 | 0.0 | 18.0 | 18.0 | 9.0 | 12.0 | 44.0 | 18.0 | 18.0 | 9.0 | 15.0 | 41.0 | 21.0 | 21.0 | 6.0 | 15.0 | 38.0 | 18.0 | 18.0 | 9.0 | 15.0 | 41.0 | 9.0 | 12.0 | 18.0 | 32.0 | 29.0 | 9.0 | 15.0 | 15.0 | 32.0 | 29.0 | 9.0 | 18.0 | 15.0 | 32.0 | 26.0 | 6.0 | 15.0 | 21.0 | 32.0 | 26.0 | 6.0 | 3.0 | 55.0 | 9.0 | 27.0 | 47.0 | 44.0 | 0.0 | 9.0 | 71.0 | 21.0 | 0.0 | 9.0 | 62.0 | 29.0 | 0.0 | 9.0 | 88.0 | 12.0 | 0.0 | 0.0 | 88.0 | 9.0 | 3.0 | 0.0 | 85.0 | 12.0 | 3.0 | 0.0 | 29.0 | 4.0 | 0.0 | 1.0 | 31.0 | 1.0 | 1.0 | 1.0 | 23.0 | 8.0 | 1.0 | 2.0 | 28.0 | 5.0 | 0.0 | 0.0 | 27.0 | 4.0 | 0.0 | 3.0 | 27.0 | 4.0 | 1.0 | 2.0 | 23.0 | 9.0 | 0.0 | 2.0 | 30.0 | 3.0 | 1.0 | 0.0 | 30.0 | 3.0 | 0.0 | 0.0 | 30.0 | 2.0 | 1.0 | 0.0 | 28.0 | 5.0 | 0.0 | 1.0 | 29.0 | 3.0 | 1.0 | 1.0 | NaN | NaN | NaN | NaN | 3.0 | 22.0 | 8.0 | 30.0 | 2.0 | 1.0 | 2.0 | 6.0 | 25.0 | 16.0 | 0.0 | 16.0 | 0.0 | 0.0 | 33.0 | 32.0 | 1.0 | 0.0 | 20.0 | 0.0 | 13.0 | 33.0 | 0.0 | 0.0 | 1.0 | 7.0 | 25.0 | 19.0 | 16.0 | 2.0 | 16.0 | 14.0 | 2.0 | 1.0 | 29.0 | 2.0 | 2.0 | 1.0 | 0.0 | 30.0 | 2.0 | 1.0 | 0.0 | 0.0 | 30.0 | 3.0 | 1.0 | 0.0 | 0.0 | 24.0 | 7.0 | 2.0 | 1.0 | 25.0 | 5.0 | 3.0 | 1.0 | 25.0 | 7.0 | 1.0 | 1.0 | 29.0 | 5.0 | 0.0 | 0.0 | 26.0 | 7.0 | 1.0 | 0.0 | 27.0 | 6.0 | 1.0 | 0.0 | 26.0 | 6.0 | 1.0 | 0.0 | 23.0 | 8.0 | 0.0 | 2.0 | 29.0 | 2.0 | 1.0 | 1.0 | 30.0 | 2.0 | 1.0 | 0.0 | 30.0 | 2.0 | 1.0 | 0.0 | 31.0 | 2.0 | 0.0 | 0.0 | 28.0 | 3.0 | 2.0 | 0.0 | 23.0 | 7.0 | 1.0 | 1.0 | 1.0 | 22.0 | 5.0 | 3.0 | 2.0 | 1.0 | 24.0 | 6.0 | 0.0 | 2.0 | 1.0 | 22.0 | 8.0 | 2.0 | 0.0 | 1.0 | 22.0 | 7.0 | 3.0 | 0.0 | 1.0 | 23.0 | 10.0 | 1.0 | 0.0 | 25.0 | 8.0 | 1.0 | 0.0 | 25.0 | 7.0 | 2.0 | 0.0 | 1.0 | 2.0 | 1.0 | 25.0 | 3.0 | 25.0 | 7.0 | 1.0 | 0.0 | 0.0 | 1.0 | 8.0 | 11.0 | 12.0 | 2.0 | 0.0 | 1.0 | 13.0 | 6.0 | 11.0 | 2.0 | 0.0 | 2.0 | 7.0 | 4.0 | 16.0 | 5.0 | 0.0 | 2.0 | 7.0 | 4.0 | 15.0 | 4.0 | 1.0 | 3.0 | 17.0 | 14.0 | 3.0 | 0.0 | 21.0 | 10.0 | 1.0 | 1.0 | 25.0 | 8.0 | 1.0 | 0.0 | 1.0 | 2.0 | 12.0 | 19.0 | 0.0 | 4.0 | 18.0 | 12.0 | 1.0 | 1.0 | 5.0 | 27.0 | 13.0 | 14.0 | 5.0 | 2.0 | 10.0 | 20.0 | 3.0 | 1.0 | 29.0 | 3.0 | 1.0 | 1.0 | 0.0 | 0.0 | 2.0 | 32.0 | 0.0 | 1.0 | 10.0 | 23.0 | 23.0 | 8.0 | 1.0 | 2.0 | 0.0 | 0.0 | 2.0 | 32.0 | 25.0 | 8.0 | 0.0 | 1.0 | 21.0 | 6.0 | 2.0 | 0.0 | 6.0 | 6.0 | 3.0 | 4.0 | 15.0 | 6.0 | 6.0 | 3.0 | 5.0 | 14.0 | 7.0 | 7.0 | 2.0 | 5.0 | 13.0 | 6.0 | 6.0 | 3.0 | 5.0 | 14.0 | 3.0 | 4.0 | 6.0 | 11.0 | 10.0 | 3.0 | 5.0 | 5.0 | 11.0 | 10.0 | 3.0 | 6.0 | 5.0 | 11.0 | 9.0 | 2.0 | 5.0 | 7.0 | 11.0 | 9.0 | 2.0 | 1.0 | 18.0 | 3.0 | 9.0 | 16.0 | 15.0 | 0.0 | 3.0 | 24.0 | 7.0 | 0.0 | 3.0 | 21.0 | 10.0 | 0.0 | 3.0 | 30.0 | 4.0 | 0.0 | 0.0 | 30.0 | 3.0 | 1.0 | 0.0 | 29.0 | 4.0 | 1.0 | 0.0 | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN |
2 | 01M020 | M020 | P.S. 020 Anna Silver | 0 | No | 0.0 | Elementary School | NaN | 88 | 73 | NaN | 42.0 | 367.0 | 0 | 48 | 505 | 8.9 | 8.3 | 8.3 | 8.6 | 7.6 | 6.3 | 6.8 | 7.5 | NaN | NaN | NaN | NaN | 8.2 | 7.3 | 7.5 | 8.0 | 8.1 | 8.8 | 8.9 | 8.5 | 8.4 | 7.6 | 9.2 | 9.4 | 9.2 | 9.8 | 9.7 | 8.4 | 8.8 | 8.5 | 8.3 | 8.0 | 7.6 | 7.3 | 8.6 | 8.7 | 8.4 | 8.8 | 8.2 | 8.8 | 7.9 | 6.8 | 8.5 | 8.5 | 8.7 | 8.6 | 8.5 | NaN | 8.9 | 8.4 | 8.6 | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | 10.0 | 18.0 | 20.0 | 11.0 | 14.0 | 12.0 | 17.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 64.0 | 36.0 | 0.0 | 0.0 | 0.0 | 54.0 | 45.0 | 1.0 | 0.0 | 0.0 | 50.0 | 48.0 | 3.0 | 0.0 | 0.0 | 66.0 | 34.0 | 1.0 | 0.0 | 0.0 | 58.0 | 41.0 | 2.0 | 0.0 | 0.0 | 48.0 | 43.0 | 1.0 | 1.0 | 7.0 | 46.0 | 46.0 | 5.0 | 1.0 | 2.0 | 46.0 | 48.0 | 3.0 | 1.0 | 3.0 | 43.0 | 30.0 | 18.0 | 7.0 | 2.0 | 38.0 | 34.0 | 14.0 | 8.0 | 5.0 | 41.0 | 39.0 | 13.0 | 5.0 | 3.0 | 37.0 | 33.0 | 20.0 | 8.0 | 2.0 | 52.0 | 43.0 | 2.0 | 1.0 | 2.0 | 51.0 | 46.0 | 1.0 | 1.0 | 1.0 | 56.0 | 39.0 | 3.0 | 0.0 | 2.0 | 51.0 | 42.0 | 3.0 | 0.0 | 4.0 | NaN | NaN | NaN | NaN | NaN | 59.0 | 31.0 | 49.0 | 11.0 | 12.0 | 52.0 | 14.0 | 64.0 | 17.0 | 28.0 | 35.0 | 52.0 | 6.0 | 1.0 | 5.0 | 24.0 | 32.0 | 5.0 | 1.0 | 39.0 | 55.0 | 43.0 | 1.0 | 1.0 | 1.0 | 58.0 | 40.0 | 1.0 | 1.0 | 0.0 | 50.0 | 42.0 | 1.0 | 1.0 | 5.0 | 53.0 | 41.0 | 2.0 | 0.0 | 4.0 | 33.0 | 34.0 | 8.0 | 2.0 | 23.0 | 71.0 | 11.0 | 3.0 | 1.0 | 14.0 | 74.0 | 3.0 | 2.0 | 2.0 | 19.0 | 69.0 | 9.0 | 2.0 | 2.0 | 18.0 | 85.0 | 1.0 | 1.0 | 1.0 | 12.0 | 82.0 | 2.0 | 1.0 | 2.0 | 14.0 | 3.0 | 14.0 | 19.0 | 12.0 | 9.0 | 5.0 | 4.0 | 23.0 | 10.0 | 1.0 | 48.0 | 47.0 | 11.0 | 60.0 | 12.0 | 10.0 | 57.0 | 18.0 | 13.0 | 55.0 | 4.0 | 4.0 | 69.0 | 29.0 | 2.0 | 0.0 | 55.0 | 42.0 | 3.0 | 0.0 | 56.0 | 42.0 | 2.0 | 1.0 | 57.0 | 40.0 | 3.0 | 0.0 | 55.0 | 43.0 | 1.0 | 0.0 | 58.0 | 40.0 | 1.0 | 0.0 | 24.0 | 40.0 | 13.0 | 4.0 | 19.0 | 20.0 | 45.0 | 10.0 | 2.0 | 23.0 | 22.0 | 52.0 | 9.0 | 1.0 | 16.0 | 27.0 | 49.0 | 9.0 | 1.0 | 14.0 | 21.0 | 42.0 | 9.0 | 7.0 | 21.0 | 15.0 | 45.0 | 10.0 | 5.0 | 25.0 | 18.0 | 45.0 | 11.0 | 5.0 | 21.0 | 18.0 | 47.0 | 9.0 | 5.0 | 21.0 | 33.0 | 62.0 | 68.0 | 37.0 | 47.0 | 42.0 | 58.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 230.0 | 128.0 | 1.0 | 0.0 | 1.0 | 192.0 | 158.0 | 3.0 | 1.0 | 1.0 | 177.0 | 170.0 | 9.0 | 0.0 | 0.0 | 230.0 | 118.0 | 2.0 | 0.0 | 1.0 | 205.0 | 144.0 | 6.0 | 0.0 | 0.0 | 168.0 | 150.0 | 4.0 | 3.0 | 25.0 | 161.0 | 163.0 | 19.0 | 4.0 | 6.0 | 162.0 | 170.0 | 10.0 | 2.0 | 10.0 | 154.0 | 106.0 | 64.0 | 24.0 | 8.0 | 136.0 | 122.0 | 51.0 | 29.0 | 19.0 | 144.0 | 137.0 | 44.0 | 16.0 | 11.0 | 131.0 | 118.0 | 71.0 | 28.0 | 6.0 | 188.0 | 153.0 | 8.0 | 2.0 | 8.0 | 181.0 | 165.0 | 5.0 | 2.0 | 3.0 | 198.0 | 140.0 | 10.0 | 1.0 | 6.0 | 178.0 | 146.0 | 11.0 | 1.0 | 14.0 | NaN | NaN | NaN | NaN | NaN | 216.0 | 113.0 | 180.0 | 40.0 | 44.0 | 192.0 | 52.0 | 234.0 | 63.0 | 103.0 | 126.0 | 187.0 | 22.0 | 3.0 | 19.0 | 78.0 | 104.0 | 16.0 | 3.0 | 129.0 | 197.0 | 152.0 | 4.0 | 2.0 | 2.0 | 204.0 | 140.0 | 4.0 | 2.0 | 0.0 | 176.0 | 148.0 | 4.0 | 4.0 | 17.0 | 150.0 | 117.0 | 5.0 | 1.0 | 11.0 | 107.0 | 113.0 | 25.0 | 6.0 | 77.0 | 229.0 | 34.0 | 9.0 | 4.0 | 45.0 | 238.0 | 9.0 | 8.0 | 7.0 | 60.0 | 222.0 | 28.0 | 7.0 | 7.0 | 59.0 | 274.0 | 2.0 | 3.0 | 4.0 | 38.0 | 265.0 | 6.0 | 2.0 | 6.0 | 46.0 | 7.0 | 37.0 | 50.0 | 32.0 | 23.0 | 12.0 | 11.0 | 59.0 | 26.0 | 2.0 | 176.0 | 173.0 | 40.0 | 219.0 | 43.0 | 36.0 | 210.0 | 65.0 | 48.0 | 203.0 | 16.0 | 13.0 | 246.0 | 105.0 | 6.0 | 0.0 | 193.0 | 147.0 | 12.0 | 1.0 | 195.0 | 146.0 | 6.0 | 3.0 | 201.0 | 140.0 | 9.0 | 1.0 | 191.0 | 149.0 | 4.0 | 1.0 | 202.0 | 140.0 | 5.0 | 0.0 | 70.0 | 118.0 | 37.0 | 12.0 | 55.0 | 58.0 | 130.0 | 29.0 | 5.0 | 65.0 | 65.0 | 149.0 | 26.0 | 4.0 | 45.0 | 78.0 | 141.0 | 26.0 | 4.0 | 40.0 | 58.0 | 118.0 | 24.0 | 21.0 | 60.0 | 42.0 | 122.0 | 26.0 | 14.0 | 69.0 | 50.0 | 123.0 | 29.0 | 14.0 | 59.0 | 49.0 | 129.0 | 25.0 | 13.0 | 57.0 | 7.3 | 6.2 | 6.9 | 6.3 | 5.9 | 8.1 | 8.9 | 6.5 | 7.7 | 7.8 | 7.5 | 9.2 | 7.9 | 6.6 | 9.1 | 9.6 | 8.1 | 6.4 | 6.4 | 6.3 | 6.6 | 6.1 | 6.2 | 6.3 | 6.2 | 6.0 | 6.9 | 7.2 | 6.2 | 6.0 | 7.7 | 6.4 | 8.0 | 5.9 | 6.2 | 6.7 | 6.4 | 6.3 | 8.0 | 7.0 | 6.7 | 7.8 | 8.5 | 7.9 | 7.4 | 7.2 | NaN | 9.9 | 6.8 | 6.2 | 7.5 | 7.1 | 7.5 | 7.8 | 7.9 | 6.8 | 7.3 | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | 33.0 | 43.0 | 7.0 | 17.0 | 36.0 | 36.0 | 14.0 | 14.0 | 29.0 | 45.0 | 12.0 | 14.0 | 31.0 | 54.0 | 10.0 | 5.0 | 33.0 | 43.0 | 14.0 | 10.0 | 40.0 | 33.0 | 10.0 | 17.0 | 38.0 | 24.0 | 21.0 | 17.0 | 48.0 | 40.0 | 10.0 | 2.0 | 56.0 | 44.0 | 0.0 | 0.0 | 44.0 | 51.0 | 5.0 | 0.0 | 29.0 | 64.0 | 7.0 | 0.0 | 32.0 | 54.0 | 15.0 | 0.0 | NaN | NaN | NaN | NaN | 90.0 | 7.0 | 0.0 | 2.0 | 19.0 | 71.0 | 55.0 | 31.0 | 17.0 | 10.0 | 21.0 | 62.0 | 26.0 | 5.0 | 64.0 | 90.0 | 2.0 | 0.0 | 10.0 | 10.0 | 74.0 | 90.0 | 5.0 | 0.0 | 10.0 | 76.0 | 12.0 | 33.0 | 62.0 | 7.0 | 26.0 | 64.0 | 10.0 | 0.0 | 31.0 | 40.0 | 12.0 | 17.0 | 0.0 | 26.0 | 40.0 | 19.0 | 14.0 | 0.0 | 38.0 | 52.0 | 7.0 | 0.0 | 2.0 | 31.0 | 40.0 | 12.0 | 17.0 | 33.0 | 38.0 | 17.0 | 12.0 | 52.0 | 40.0 | 2.0 | 5.0 | 31.0 | 57.0 | 12.0 | 0.0 | 17.0 | 55.0 | 26.0 | 2.0 | 31.0 | 48.0 | 19.0 | 2.0 | 38.0 | 51.0 | 8.0 | 3.0 | 28.0 | 38.0 | 26.0 | 8.0 | 38.0 | 41.0 | 15.0 | 5.0 | 49.0 | 38.0 | 3.0 | 10.0 | 33.0 | 67.0 | 0.0 | 0.0 | 38.0 | 59.0 | 3.0 | 0.0 | 28.0 | 59.0 | 13.0 | 0.0 | 16.0 | 50.0 | 29.0 | 5.0 | 0.0 | 26.0 | 58.0 | 5.0 | 8.0 | 3.0 | 29.0 | 61.0 | 5.0 | 3.0 | 3.0 | 18.0 | 53.0 | 26.0 | 3.0 | 0.0 | 24.0 | 55.0 | 18.0 | 3.0 | 0.0 | 23.0 | 52.0 | 20.0 | 5.0 | 23.0 | 52.0 | 18.0 | 8.0 | 33.0 | 35.0 | 20.0 | 13.0 | 3.0 | 5.0 | 16.0 | 70.0 | 5.0 | 48.0 | 18.0 | 20.0 | 10.0 | 0.0 | 5.0 | 18.0 | 15.0 | 23.0 | 43.0 | 3.0 | 0.0 | 30.0 | 28.0 | 23.0 | 15.0 | 5.0 | 0.0 | 5.0 | 23.0 | 23.0 | 30.0 | 8.0 | 13.0 | 13.0 | 23.0 | 30.0 | 23.0 | 3.0 | 10.0 | 25.0 | 50.0 | 15.0 | 10.0 | 19.0 | 49.0 | 22.0 | 11.0 | 51.0 | 41.0 | 8.0 | 0.0 | 0.0 | 3.0 | 29.0 | 68.0 | 3.0 | 23.0 | 51.0 | 23.0 | 3.0 | 5.0 | 51.0 | 41.0 | 34.0 | 66.0 | 0.0 | 0.0 | 24.0 | 76.0 | 0.0 | 0.0 | 44.0 | 54.0 | 3.0 | 0.0 | 0.0 | 3.0 | 18.0 | 79.0 | 3.0 | 15.0 | 26.0 | 56.0 | 26.0 | 56.0 | 8.0 | 10.0 | 3.0 | 3.0 | 13.0 | 82.0 | 87.0 | 13.0 | 0.0 | 0.0 | 57.0 | 36.0 | 0.0 | 7.0 | 5.0 | 28.0 | 33.0 | 13.0 | 23.0 | 5.0 | 35.0 | 28.0 | 8.0 | 25.0 | 3.0 | 43.0 | 25.0 | 8.0 | 23.0 | 3.0 | 50.0 | 18.0 | 10.0 | 20.0 | 0.0 | 23.0 | 35.0 | 25.0 | 18.0 | 0.0 | 23.0 | 38.0 | 20.0 | 20.0 | 0.0 | 30.0 | 33.0 | 23.0 | 15.0 | 0.0 | 28.0 | 33.0 | 20.0 | 20.0 | 5.0 | 8.0 | 46.0 | 14.0 | 27.0 | 20.0 | 33.0 | 30.0 | 18.0 | 25.0 | 60.0 | 13.0 | 3.0 | 13.0 | 48.0 | 35.0 | 5.0 | 35.0 | 55.0 | 10.0 | 0.0 | 31.0 | 59.0 | 10.0 | 0.0 | 35.0 | 58.0 | 8.0 | 0.0 | 14.0 | 18.0 | 3.0 | 7.0 | 15.0 | 15.0 | 6.0 | 6.0 | 12.0 | 19.0 | 5.0 | 6.0 | 12.0 | 21.0 | 4.0 | 2.0 | 14.0 | 18.0 | 6.0 | 4.0 | 17.0 | 14.0 | 4.0 | 7.0 | 16.0 | 10.0 | 9.0 | 7.0 | 20.0 | 17.0 | 4.0 | 1.0 | 22.0 | 17.0 | 0.0 | 0.0 | 17.0 | 20.0 | 2.0 | 0.0 | 12.0 | 27.0 | 3.0 | 0.0 | 13.0 | 22.0 | 6.0 | 0.0 | NaN | NaN | NaN | NaN | 38.0 | 3.0 | 0.0 | 1.0 | 8.0 | 30.0 | 23.0 | 13.0 | 7.0 | 4.0 | 9.0 | 26.0 | 11.0 | 2.0 | 27.0 | 38.0 | 1.0 | 0.0 | 4.0 | 4.0 | 31.0 | 38.0 | 2.0 | 0.0 | 4.0 | 32.0 | 5.0 | 14.0 | 26.0 | 3.0 | 10.0 | 25.0 | 4.0 | 0.0 | 13.0 | 17.0 | 5.0 | 7.0 | 0.0 | 11.0 | 17.0 | 8.0 | 6.0 | 0.0 | 16.0 | 22.0 | 3.0 | 0.0 | 1.0 | 13.0 | 17.0 | 5.0 | 7.0 | 14.0 | 16.0 | 7.0 | 5.0 | 22.0 | 17.0 | 1.0 | 2.0 | 13.0 | 24.0 | 5.0 | 0.0 | 7.0 | 23.0 | 11.0 | 1.0 | 13.0 | 20.0 | 8.0 | 1.0 | 15.0 | 20.0 | 3.0 | 1.0 | 11.0 | 15.0 | 10.0 | 3.0 | 15.0 | 16.0 | 6.0 | 2.0 | 19.0 | 15.0 | 1.0 | 4.0 | 13.0 | 26.0 | 0.0 | 0.0 | 15.0 | 23.0 | 1.0 | 0.0 | 11.0 | 23.0 | 5.0 | 0.0 | 6.0 | 19.0 | 11.0 | 2.0 | 0.0 | 10.0 | 22.0 | 2.0 | 3.0 | 1.0 | 11.0 | 23.0 | 2.0 | 1.0 | 1.0 | 7.0 | 20.0 | 10.0 | 1.0 | 0.0 | 9.0 | 21.0 | 7.0 | 1.0 | 0.0 | 9.0 | 21.0 | 8.0 | 2.0 | 9.0 | 21.0 | 7.0 | 3.0 | 13.0 | 14.0 | 8.0 | 5.0 | 1.0 | 2.0 | 6.0 | 26.0 | 2.0 | 19.0 | 7.0 | 8.0 | 4.0 | 0.0 | 2.0 | 7.0 | 6.0 | 9.0 | 17.0 | 1.0 | 0.0 | 12.0 | 11.0 | 9.0 | 6.0 | 2.0 | 0.0 | 2.0 | 9.0 | 9.0 | 12.0 | 3.0 | 5.0 | 5.0 | 9.0 | 12.0 | 9.0 | 1.0 | 4.0 | 10.0 | 20.0 | 6.0 | 4.0 | 7.0 | 18.0 | 8.0 | 4.0 | 20.0 | 16.0 | 3.0 | 0.0 | 0.0 | 1.0 | 11.0 | 26.0 | 1.0 | 9.0 | 20.0 | 9.0 | 1.0 | 2.0 | 20.0 | 16.0 | 13.0 | 25.0 | 0.0 | 0.0 | 9.0 | 29.0 | 0.0 | 0.0 | 17.0 | 21.0 | 1.0 | 0.0 | 0.0 | 1.0 | 7.0 | 31.0 | 1.0 | 6.0 | 10.0 | 22.0 | 10.0 | 22.0 | 3.0 | 4.0 | 1.0 | 1.0 | 5.0 | 31.0 | 33.0 | 5.0 | 0.0 | 0.0 | 16.0 | 10.0 | 0.0 | 2.0 | 2.0 | 11.0 | 13.0 | 5.0 | 9.0 | 2.0 | 14.0 | 11.0 | 3.0 | 10.0 | 1.0 | 17.0 | 10.0 | 3.0 | 9.0 | 1.0 | 20.0 | 7.0 | 4.0 | 8.0 | 0.0 | 9.0 | 14.0 | 10.0 | 7.0 | 0.0 | 9.0 | 15.0 | 8.0 | 8.0 | 0.0 | 12.0 | 13.0 | 9.0 | 6.0 | 0.0 | 11.0 | 13.0 | 8.0 | 8.0 | 2.0 | 3.0 | 17.0 | 5.0 | 10.0 | 8.0 | 13.0 | 12.0 | 7.0 | 10.0 | 24.0 | 5.0 | 1.0 | 5.0 | 19.0 | 14.0 | 2.0 | 14.0 | 22.0 | 4.0 | 0.0 | 12.0 | 23.0 | 4.0 | 0.0 | 14.0 | 23.0 | 3.0 | 0.0 | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN |
3 | 01M034 | M034 | P.S. 034 Franklin D. Roosevelt | 0 | Yes | 0.0 | Elementary / Middle School | 89.0 | 73 | 50 | 145.0 | 29.0 | 151.0 | 163 | 40 | 301 | 8.8 | 8.2 | 8.0 | 8.5 | 7.0 | 6.2 | 6.8 | 7.8 | 6.2 | 5.9 | 6.5 | 7.4 | 7.3 | 6.7 | 7.1 | 7.9 | 8.1 | 8.5 | 8.8 | 8.2 | 8.3 | 7.3 | 9.2 | 9.4 | 9.1 | 9.8 | 9.7 | 8.3 | 8.7 | 8.3 | 8.1 | 7.6 | 7.6 | 7.5 | 8.6 | 8.6 | 8.4 | 8.5 | 8.1 | 8.8 | 7.3 | 6.8 | 8.2 | 8.3 | 8.0 | 8.7 | 8.3 | NaN | 8.8 | 8.3 | 8.5 | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | 5.0 | 9.0 | 7.0 | 11.0 | 6.0 | 11.0 | 13.0 | 14.0 | 13.0 | 9.0 | 0.0 | 1.0 | 0.0 | 0.0 | 57.0 | 41.0 | 1.0 | 1.0 | 1.0 | 53.0 | 45.0 | 1.0 | 1.0 | 0.0 | 49.0 | 46.0 | 5.0 | 1.0 | 0.0 | 62.0 | 35.0 | 1.0 | 1.0 | 1.0 | 55.0 | 40.0 | 2.0 | 2.0 | 1.0 | 46.0 | 46.0 | 3.0 | 1.0 | 4.0 | 44.0 | 41.0 | 14.0 | 1.0 | 0.0 | 48.0 | 44.0 | 4.0 | 1.0 | 3.0 | 44.0 | 33.0 | 12.0 | 6.0 | 6.0 | 45.0 | 33.0 | 10.0 | 5.0 | 8.0 | 47.0 | 33.0 | 7.0 | 8.0 | 5.0 | 39.0 | 33.0 | 18.0 | 7.0 | 3.0 | 55.0 | 40.0 | 2.0 | 0.0 | 3.0 | 55.0 | 40.0 | 3.0 | 1.0 | 1.0 | 57.0 | 36.0 | 4.0 | 1.0 | 3.0 | 51.0 | 38.0 | 6.0 | 1.0 | 3.0 | NaN | NaN | NaN | NaN | NaN | 23.0 | 62.0 | 17.0 | 7.0 | 23.0 | 42.0 | 7.0 | 42.0 | 23.0 | 21.0 | 34.0 | 45.0 | 13.0 | 3.0 | 5.0 | 23.0 | 31.0 | 4.0 | 1.0 | 42.0 | 49.0 | 46.0 | 2.0 | 1.0 | 2.0 | 58.0 | 39.0 | 1.0 | 1.0 | 0.0 | 51.0 | 37.0 | 5.0 | 2.0 | 5.0 | 52.0 | 41.0 | 2.0 | 1.0 | 4.0 | 30.0 | 37.0 | 6.0 | 4.0 | 22.0 | 63.0 | 13.0 | 1.0 | 1.0 | 21.0 | 68.0 | 5.0 | 2.0 | 1.0 | 23.0 | 67.0 | 9.0 | 3.0 | 2.0 | 19.0 | 74.0 | 1.0 | 1.0 | 0.0 | 24.0 | 73.0 | 1.0 | 1.0 | 1.0 | 23.0 | 6.0 | 9.0 | 17.0 | 17.0 | 16.0 | 8.0 | 3.0 | 16.0 | 8.0 | 0.0 | 63.0 | 49.0 | 13.0 | 52.0 | 11.0 | 10.0 | 68.0 | 28.0 | 11.0 | 49.0 | 3.0 | 3.0 | 66.0 | 31.0 | 3.0 | 0.0 | 55.0 | 39.0 | 6.0 | 0.0 | 56.0 | 39.0 | 5.0 | 0.0 | 54.0 | 39.0 | 7.0 | 0.0 | 52.0 | 45.0 | 3.0 | 0.0 | 58.0 | 38.0 | 4.0 | 0.0 | 30.0 | 46.0 | 9.0 | 2.0 | 13.0 | 28.0 | 47.0 | 6.0 | 2.0 | 17.0 | 31.0 | 49.0 | 6.0 | 4.0 | 10.0 | 36.0 | 44.0 | 6.0 | 2.0 | 11.0 | 21.0 | 38.0 | 14.0 | 5.0 | 22.0 | 19.0 | 38.0 | 13.0 | 6.0 | 24.0 | 22.0 | 41.0 | 11.0 | 5.0 | 20.0 | 22.0 | 40.0 | 12.0 | 5.0 | 20.0 | 7.0 | 13.0 | 10.0 | 16.0 | 9.0 | 15.0 | 18.0 | 20.0 | 19.0 | 13.0 | 0.0 | 1.0 | 0.0 | 0.0 | 85.0 | 61.0 | 2.0 | 1.0 | 1.0 | 79.0 | 68.0 | 2.0 | 1.0 | 0.0 | 71.0 | 67.0 | 7.0 | 1.0 | 0.0 | 92.0 | 52.0 | 2.0 | 1.0 | 1.0 | 81.0 | 59.0 | 3.0 | 3.0 | 1.0 | 66.0 | 67.0 | 5.0 | 1.0 | 6.0 | 64.0 | 59.0 | 20.0 | 2.0 | 0.0 | 68.0 | 63.0 | 6.0 | 2.0 | 4.0 | 63.0 | 47.0 | 17.0 | 8.0 | 9.0 | 65.0 | 48.0 | 14.0 | 8.0 | 11.0 | 68.0 | 48.0 | 10.0 | 11.0 | 7.0 | 56.0 | 48.0 | 26.0 | 10.0 | 5.0 | 79.0 | 57.0 | 3.0 | 0.0 | 5.0 | 81.0 | 58.0 | 5.0 | 1.0 | 1.0 | 80.0 | 51.0 | 5.0 | 1.0 | 4.0 | 73.0 | 55.0 | 9.0 | 1.0 | 5.0 | NaN | NaN | NaN | NaN | NaN | 34.0 | 93.0 | 25.0 | 10.0 | 35.0 | 64.0 | 10.0 | 64.0 | 34.0 | 32.0 | 49.0 | 64.0 | 18.0 | 5.0 | 7.0 | 31.0 | 41.0 | 5.0 | 1.0 | 56.0 | 72.0 | 67.0 | 3.0 | 1.0 | 3.0 | 83.0 | 56.0 | 2.0 | 1.0 | 0.0 | 72.0 | 53.0 | 7.0 | 3.0 | 7.0 | 60.0 | 48.0 | 2.0 | 1.0 | 5.0 | 43.0 | 53.0 | 9.0 | 6.0 | 32.0 | 88.0 | 18.0 | 2.0 | 2.0 | 30.0 | 95.0 | 7.0 | 3.0 | 2.0 | 32.0 | 94.0 | 13.0 | 4.0 | 3.0 | 27.0 | 103.0 | 2.0 | 2.0 | 0.0 | 33.0 | 105.0 | 2.0 | 2.0 | 1.0 | 33.0 | 6.0 | 9.0 | 18.0 | 18.0 | 17.0 | 8.0 | 3.0 | 17.0 | 8.0 | 0.0 | 95.0 | 74.0 | 19.0 | 79.0 | 17.0 | 15.0 | 102.0 | 42.0 | 16.0 | 74.0 | 4.0 | 5.0 | 97.0 | 45.0 | 5.0 | 0.0 | 78.0 | 56.0 | 9.0 | 0.0 | 79.0 | 54.0 | 7.0 | 0.0 | 75.0 | 55.0 | 10.0 | 0.0 | 73.0 | 64.0 | 4.0 | 0.0 | 82.0 | 54.0 | 6.0 | 0.0 | 35.0 | 53.0 | 11.0 | 2.0 | 15.0 | 31.0 | 53.0 | 7.0 | 2.0 | 19.0 | 34.0 | 53.0 | 7.0 | 4.0 | 11.0 | 39.0 | 48.0 | 7.0 | 2.0 | 12.0 | 22.0 | 40.0 | 15.0 | 5.0 | 23.0 | 19.0 | 38.0 | 13.0 | 6.0 | 24.0 | 22.0 | 41.0 | 11.0 | 5.0 | 20.0 | 22.0 | 39.0 | 12.0 | 5.0 | 20.0 | 8.3 | 7.0 | 7.7 | 5.3 | 5.5 | 7.2 | 7.5 | 5.9 | 7.4 | 5.2 | 5.7 | 8.2 | 7.8 | 6.8 | 8.6 | 8.5 | 6.5 | 6.7 | 6.7 | 5.4 | 6.2 | 6.0 | 5.7 | 6.0 | 6.2 | 6.5 | 6.3 | 6.8 | 5.7 | 6.3 | 8.5 | 6.7 | 7.2 | 7.2 | 6.9 | 7.3 | 5.6 | 5.6 | 7.2 | 8.0 | 6.6 | 7.7 | 8.6 | 8.1 | 8.3 | 7.8 | NaN | 10.0 | 8.6 | 6.7 | 6.7 | 7.6 | 7.0 | 8.1 | 8.2 | 6.9 | 7.9 | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | 31.0 | 48.0 | 10.0 | 10.0 | 31.0 | 45.0 | 17.0 | 7.0 | 21.0 | 41.0 | 17.0 | 21.0 | 39.0 | 61.0 | 0.0 | 0.0 | 31.0 | 41.0 | 21.0 | 7.0 | 28.0 | 45.0 | 14.0 | 14.0 | 24.0 | 52.0 | 3.0 | 21.0 | 41.0 | 48.0 | 10.0 | 0.0 | 61.0 | 36.0 | 4.0 | 0.0 | 54.0 | 36.0 | 11.0 | 0.0 | 55.0 | 38.0 | 7.0 | 0.0 | 48.0 | 38.0 | 14.0 | 0.0 | NaN | NaN | NaN | NaN | 3.0 | 34.0 | 55.0 | 97.0 | 38.0 | 0.0 | 59.0 | 41.0 | 17.0 | 14.0 | 24.0 | 52.0 | 90.0 | 0.0 | 7.0 | 90.0 | 28.0 | 3.0 | 24.0 | 7.0 | 62.0 | 97.0 | 17.0 | 0.0 | 24.0 | 79.0 | 0.0 | 48.0 | 79.0 | 3.0 | 30.0 | 48.0 | 19.0 | 4.0 | 21.0 | 45.0 | 21.0 | 14.0 | 0.0 | 31.0 | 38.0 | 21.0 | 10.0 | 0.0 | 66.0 | 24.0 | 10.0 | 0.0 | 0.0 | 28.0 | 52.0 | 14.0 | 7.0 | 31.0 | 48.0 | 10.0 | 10.0 | 45.0 | 41.0 | 0.0 | 14.0 | 52.0 | 45.0 | 3.0 | 0.0 | 34.0 | 48.0 | 10.0 | 7.0 | 45.0 | 45.0 | 7.0 | 3.0 | 14.0 | 75.0 | 7.0 | 4.0 | 14.0 | 54.0 | 21.0 | 11.0 | 43.0 | 43.0 | 14.0 | 0.0 | 36.0 | 46.0 | 11.0 | 7.0 | 54.0 | 36.0 | 11.0 | 0.0 | 46.0 | 54.0 | 0.0 | 0.0 | 43.0 | 46.0 | 11.0 | 0.0 | 39.0 | 39.0 | 11.0 | 7.0 | 4.0 | 32.0 | 46.0 | 18.0 | 4.0 | 0.0 | 43.0 | 50.0 | 7.0 | 0.0 | 0.0 | 39.0 | 36.0 | 11.0 | 11.0 | 4.0 | 36.0 | 43.0 | 11.0 | 4.0 | 7.0 | 10.0 | 48.0 | 41.0 | 0.0 | 14.0 | 46.0 | 32.0 | 7.0 | 21.0 | 45.0 | 28.0 | 7.0 | 0.0 | 18.0 | 32.0 | 39.0 | 11.0 | 41.0 | 28.0 | 21.0 | 7.0 | 0.0 | 3.0 | 7.0 | 14.0 | 45.0 | 34.0 | 0.0 | 0.0 | 24.0 | 28.0 | 38.0 | 3.0 | 7.0 | 0.0 | 7.0 | 14.0 | 55.0 | 10.0 | 7.0 | 7.0 | 7.0 | 17.0 | 41.0 | 28.0 | 3.0 | 3.0 | 7.0 | 48.0 | 41.0 | 3.0 | 21.0 | 25.0 | 50.0 | 4.0 | 31.0 | 59.0 | 7.0 | 3.0 | 0.0 | 10.0 | 55.0 | 34.0 | 0.0 | 48.0 | 28.0 | 24.0 | 3.0 | 14.0 | 41.0 | 41.0 | 7.0 | 52.0 | 31.0 | 10.0 | 7.0 | 66.0 | 21.0 | 7.0 | 34.0 | 52.0 | 10.0 | 3.0 | 0.0 | 7.0 | 41.0 | 52.0 | 0.0 | 10.0 | 45.0 | 45.0 | 21.0 | 62.0 | 17.0 | 0.0 | 0.0 | 0.0 | 41.0 | 59.0 | 62.0 | 31.0 | 7.0 | 0.0 | 19.0 | 57.0 | 24.0 | 0.0 | 3.0 | 45.0 | 28.0 | 14.0 | 10.0 | 4.0 | 39.0 | 18.0 | 18.0 | 21.0 | 3.0 | 45.0 | 17.0 | 21.0 | 14.0 | 7.0 | 36.0 | 14.0 | 25.0 | 18.0 | 3.0 | 24.0 | 41.0 | 28.0 | 3.0 | 4.0 | 21.0 | 32.0 | 29.0 | 14.0 | 4.0 | 21.0 | 32.0 | 36.0 | 7.0 | 4.0 | 21.0 | 39.0 | 25.0 | 11.0 | 4.0 | 18.0 | 50.0 | 11.0 | 18.0 | 7.0 | 38.0 | 34.0 | 21.0 | 28.0 | 52.0 | 7.0 | 14.0 | 10.0 | 52.0 | 24.0 | 14.0 | 45.0 | 55.0 | 0.0 | 0.0 | 48.0 | 48.0 | 3.0 | 0.0 | 45.0 | 41.0 | 14.0 | 0.0 | 9.0 | 14.0 | 3.0 | 3.0 | 9.0 | 13.0 | 5.0 | 2.0 | 6.0 | 12.0 | 5.0 | 6.0 | 11.0 | 17.0 | 0.0 | 0.0 | 9.0 | 12.0 | 6.0 | 2.0 | 8.0 | 13.0 | 4.0 | 4.0 | 7.0 | 15.0 | 1.0 | 6.0 | 12.0 | 14.0 | 3.0 | 0.0 | 17.0 | 10.0 | 1.0 | 0.0 | 15.0 | 10.0 | 3.0 | 0.0 | 16.0 | 11.0 | 2.0 | 0.0 | 14.0 | 11.0 | 4.0 | 0.0 | NaN | NaN | NaN | NaN | 1.0 | 10.0 | 16.0 | 28.0 | 11.0 | 0.0 | 17.0 | 12.0 | 5.0 | 4.0 | 7.0 | 15.0 | 26.0 | 0.0 | 2.0 | 26.0 | 8.0 | 1.0 | 7.0 | 2.0 | 18.0 | 28.0 | 5.0 | 0.0 | 7.0 | 23.0 | 0.0 | 14.0 | 23.0 | 1.0 | 8.0 | 13.0 | 5.0 | 1.0 | 6.0 | 13.0 | 6.0 | 4.0 | 0.0 | 9.0 | 11.0 | 6.0 | 3.0 | 0.0 | 19.0 | 7.0 | 3.0 | 0.0 | 0.0 | 8.0 | 15.0 | 4.0 | 2.0 | 9.0 | 14.0 | 3.0 | 3.0 | 13.0 | 12.0 | 0.0 | 4.0 | 15.0 | 13.0 | 1.0 | 0.0 | 10.0 | 14.0 | 3.0 | 2.0 | 13.0 | 13.0 | 2.0 | 1.0 | 4.0 | 21.0 | 2.0 | 1.0 | 4.0 | 15.0 | 6.0 | 3.0 | 12.0 | 12.0 | 4.0 | 0.0 | 10.0 | 13.0 | 3.0 | 2.0 | 15.0 | 10.0 | 3.0 | 0.0 | 13.0 | 15.0 | 0.0 | 0.0 | 12.0 | 13.0 | 3.0 | 0.0 | 11.0 | 11.0 | 3.0 | 2.0 | 1.0 | 9.0 | 13.0 | 5.0 | 1.0 | 0.0 | 12.0 | 14.0 | 2.0 | 0.0 | 0.0 | 11.0 | 10.0 | 3.0 | 3.0 | 1.0 | 10.0 | 12.0 | 3.0 | 1.0 | 2.0 | 3.0 | 14.0 | 12.0 | 0.0 | 4.0 | 13.0 | 9.0 | 2.0 | 6.0 | 13.0 | 8.0 | 2.0 | 0.0 | 5.0 | 9.0 | 11.0 | 3.0 | 12.0 | 8.0 | 6.0 | 2.0 | 0.0 | 1.0 | 2.0 | 4.0 | 13.0 | 10.0 | 0.0 | 0.0 | 7.0 | 8.0 | 11.0 | 1.0 | 2.0 | 0.0 | 2.0 | 4.0 | 16.0 | 3.0 | 2.0 | 2.0 | 2.0 | 5.0 | 12.0 | 8.0 | 1.0 | 1.0 | 2.0 | 14.0 | 12.0 | 1.0 | 6.0 | 7.0 | 14.0 | 1.0 | 9.0 | 17.0 | 2.0 | 1.0 | 0.0 | 3.0 | 16.0 | 10.0 | 0.0 | 14.0 | 8.0 | 7.0 | 1.0 | 4.0 | 12.0 | 12.0 | 2.0 | 15.0 | 9.0 | 3.0 | 2.0 | 19.0 | 6.0 | 2.0 | 10.0 | 15.0 | 3.0 | 1.0 | 0.0 | 2.0 | 12.0 | 15.0 | 0.0 | 3.0 | 13.0 | 13.0 | 6.0 | 18.0 | 5.0 | 0.0 | 0.0 | 0.0 | 12.0 | 17.0 | 18.0 | 9.0 | 2.0 | 0.0 | 4.0 | 12.0 | 5.0 | 0.0 | 1.0 | 13.0 | 8.0 | 4.0 | 3.0 | 1.0 | 11.0 | 5.0 | 5.0 | 6.0 | 1.0 | 13.0 | 5.0 | 6.0 | 4.0 | 2.0 | 10.0 | 4.0 | 7.0 | 5.0 | 1.0 | 7.0 | 12.0 | 8.0 | 1.0 | 1.0 | 6.0 | 9.0 | 8.0 | 4.0 | 1.0 | 6.0 | 9.0 | 10.0 | 2.0 | 1.0 | 6.0 | 11.0 | 7.0 | 3.0 | 1.0 | 5.0 | 14.0 | 3.0 | 5.0 | 2.0 | 11.0 | 10.0 | 6.0 | 8.0 | 15.0 | 2.0 | 4.0 | 3.0 | 15.0 | 7.0 | 4.0 | 13.0 | 16.0 | 0.0 | 0.0 | 14.0 | 14.0 | 1.0 | 0.0 | 13.0 | 12.0 | 4.0 | 0.0 | 5.9 | 4.8 | 7.4 | 4.8 | 3.5 | 4.6 | 9.4 | 6.7 | 5.6 | 4.4 | 7.3 | 8.7 | 8.0 | 6.2 | 5.3 | 6.7 | 6.4 | 6.3 | 5.0 | 6.6 | 7.1 | 5.4 | 4.7 | 6.5 | 6.9 | 4.9 | 6.7 | 6.3 | 5.4 | 4.9 | 6.1 | 6.9 | 6.9 | 7.2 | 5.9 | 8.7 | 7.7 | 5.7 | 7.2 | 7.6 | 8.6 | 5.6 | 6.7 | 7.0 | 7.6 | NaN | NaN | 8.1 | 7.7 | NaN | NaN | 30.0 | 33.0 | 36.0 | 0.0 | 0.0 | 0.0 | 0.0 | 23.0 | 60.0 | 11.0 | 6.0 | 29.0 | 55.0 | 13.0 | 2.0 | 23.0 | 50.0 | 18.0 | 9.0 | 30.0 | 60.0 | 6.0 | 4.0 | 43.0 | 45.0 | 8.0 | 4.0 | 65.0 | 32.0 | 1.0 | 2.0 | 17.0 | 46.0 | 25.0 | 12.0 | 29.0 | 47.0 | 20.0 | 4.0 | 34.0 | 47.0 | 14.0 | 4.0 | 47.0 | 39.0 | 8.0 | 5.0 | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | 19.0 | 26.0 | 27.0 | 27.0 | 26.0 | 27.0 | 29.0 | 19.0 | 17.0 | 31.0 | 27.0 | 26.0 | 23.0 | 29.0 | 27.0 | 21.0 | 21.0 | 39.0 | 19.0 | 12.0 | 9.0 | 12.0 | 37.0 | 22.0 | 23.0 | 6.0 | 36.0 | 45.0 | 5.0 | 7.0 | 8.0 | 20.0 | 29.0 | 12.0 | 7.0 | 33.0 | 30.0 | 39.0 | 8.0 | 7.0 | 17.0 | 31.0 | 42.0 | 14.0 | 7.0 | 7.0 | 35.0 | 45.0 | 12.0 | 7.0 | 1.0 | 18.0 | 42.0 | 18.0 | 13.0 | 9.0 | 4.0 | 30.0 | 29.0 | 37.0 | 6.0 | 35.0 | 33.0 | 27.0 | 5.0 | 11.0 | 31.0 | 36.0 | 18.0 | 6.0 | 21.0 | 46.0 | 19.0 | 9.0 | 10.0 | 18.0 | 27.0 | 19.0 | 25.0 | 10.0 | 49.0 | 27.0 | 7.0 | 7.0 | 21.0 | 14.0 | 65.0 | 77.0 | 12.0 | 11.0 | 27.0 | 34.0 | 39.0 | 40.0 | 8.0 | 52.0 | 61.0 | 6.0 | 34.0 | 72.0 | 14.0 | 14.0 | 15.0 | 12.0 | 73.0 | 77.0 | 11.0 | 11.0 | 25.0 | 20.0 | 55.0 | 69.0 | 14.0 | 17.0 | 24.0 | 33.0 | 42.0 | 33.0 | 19.0 | 48.0 | 46.0 | 10.0 | 44.0 | 64.0 | 16.0 | 20.0 | 56.0 | 28.0 | 16.0 | 34.0 | 22.0 | 44.0 | 19.0 | 47.0 | 21.0 | 13.0 | 9.0 | 48.0 | 24.0 | 20.0 | 26.0 | 49.0 | 19.0 | 6.0 | 10.0 | 42.0 | 23.0 | 25.0 | 85.0 | 13.0 | 3.0 | 0.0 | 36.0 | 39.0 | 14.0 | 11.0 | 17.0 | 52.0 | 14.0 | 17.0 | 15.0 | 35.0 | 18.0 | 32.0 | 54.0 | 25.0 | 10.0 | 12.0 | 71.0 | 21.0 | 4.0 | 3.0 | 64.0 | 20.0 | 7.0 | 9.0 | 23.0 | 50.0 | 15.0 | 12.0 | 16.0 | 43.0 | 23.0 | 18.0 | 31.0 | 47.0 | 14.0 | 9.0 | 28.0 | 48.0 | 13.0 | 11.0 | 25.0 | 50.0 | 14.0 | 11.0 | 17.0 | 39.0 | 24.0 | 21.0 | 31.0 | 46.0 | 16.0 | 8.0 | 42.0 | 46.0 | 50.0 | 0.0 | 0.0 | 0.0 | 0.0 | 32.0 | 84.0 | 15.0 | 8.0 | 41.0 | 77.0 | 18.0 | 3.0 | 32.0 | 68.0 | 25.0 | 12.0 | 42.0 | 84.0 | 8.0 | 6.0 | 60.0 | 63.0 | 11.0 | 5.0 | 90.0 | 44.0 | 2.0 | 3.0 | 23.0 | 64.0 | 35.0 | 16.0 | 41.0 | 65.0 | 28.0 | 5.0 | 47.0 | 66.0 | 20.0 | 6.0 | 62.0 | 52.0 | 11.0 | 7.0 | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | 26.0 | 35.0 | 37.0 | 37.0 | 34.0 | 36.0 | 38.0 | 25.0 | 23.0 | 42.0 | 37.0 | 35.0 | 31.0 | 39.0 | 37.0 | 29.0 | 29.0 | 54.0 | 26.0 | 17.0 | 12.0 | 16.0 | 51.0 | 30.0 | 32.0 | 8.0 | 49.0 | 62.0 | 7.0 | 9.0 | 11.0 | 27.0 | 40.0 | 16.0 | 10.0 | 45.0 | 41.0 | 53.0 | 11.0 | 9.0 | 23.0 | 42.0 | 57.0 | 19.0 | 10.0 | 9.0 | 48.0 | 62.0 | 17.0 | 9.0 | 1.0 | 25.0 | 57.0 | 24.0 | 18.0 | 13.0 | 6.0 | 42.0 | 41.0 | 52.0 | 8.0 | 48.0 | 46.0 | 37.0 | 7.0 | 15.0 | 43.0 | 50.0 | 25.0 | 8.0 | 29.0 | 63.0 | 26.0 | 12.0 | 14.0 | 25.0 | 38.0 | 27.0 | 35.0 | 14.0 | 67.0 | 37.0 | 10.0 | 10.0 | 28.0 | 18.0 | 87.0 | 107.0 | 17.0 | 15.0 | 36.0 | 46.0 | 53.0 | 55.0 | 11.0 | 72.0 | 83.0 | 8.0 | 46.0 | 101.0 | 20.0 | 19.0 | 20.0 | 16.0 | 96.0 | 108.0 | 16.0 | 16.0 | 33.0 | 26.0 | 73.0 | 93.0 | 19.0 | 23.0 | 32.0 | 44.0 | 56.0 | 43.0 | 25.0 | 63.0 | 60.0 | 13.0 | 58.0 | 84.0 | 21.0 | 26.0 | 75.0 | 37.0 | 21.0 | 44.0 | 29.0 | 57.0 | 25.0 | 63.0 | 29.0 | 18.0 | 12.0 | 67.0 | 34.0 | 28.0 | 36.0 | 68.0 | 27.0 | 9.0 | 14.0 | 59.0 | 32.0 | 35.0 | 120.0 | 18.0 | 4.0 | 0.0 | 51.0 | 54.0 | 19.0 | 16.0 | 24.0 | 74.0 | 20.0 | 24.0 | 21.0 | 50.0 | 26.0 | 45.0 | 76.0 | 35.0 | 14.0 | 17.0 | 100.0 | 30.0 | 6.0 | 4.0 | 89.0 | 28.0 | 9.0 | 12.0 | 32.0 | 68.0 | 21.0 | 16.0 | 23.0 | 60.0 | 32.0 | 25.0 | 43.0 | 66.0 | 19.0 | 12.0 | 39.0 | 68.0 | 18.0 | 16.0 | 35.0 | 70.0 | 20.0 | 16.0 | 23.0 | 54.0 | 33.0 | 29.0 | 31.0 | 46.0 | 16.0 | 8.0 | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN |
4 | 01M063 | M063 | P.S. 063 William McKinley | 0 | No | 0.0 | Elementary School | NaN | 100 | 60 | NaN | 23.0 | 90.0 | 0 | 23 | 151 | 8.7 | 7.9 | 8.1 | 7.9 | 8.4 | 7.3 | 7.8 | 8.1 | NaN | NaN | NaN | NaN | 8.5 | 7.6 | 7.9 | 8.0 | 8.0 | 8.4 | 8.6 | 8.0 | 8.0 | 6.5 | 8.8 | 9.6 | 9.4 | 10.0 | 10.0 | 7.6 | 8.5 | 8.0 | 8.2 | 7.4 | 7.8 | 7.2 | 8.1 | 7.9 | 7.8 | 8.2 | 8.3 | 9.2 | 7.4 | 7.0 | 7.9 | 7.9 | 8.8 | 8.2 | 7.8 | NaN | 8.1 | 7.6 | 7.7 | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | 3.0 | 19.0 | 8.0 | 19.0 | 13.0 | 9.0 | 29.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 57.0 | 37.0 | 1.0 | 4.0 | 0.0 | 41.0 | 51.0 | 3.0 | 5.0 | 0.0 | 53.0 | 41.0 | 2.0 | 1.0 | 2.0 | 61.0 | 35.0 | 2.0 | 1.0 | 0.0 | 52.0 | 40.0 | 5.0 | 3.0 | 0.0 | 48.0 | 39.0 | 4.0 | 1.0 | 8.0 | 43.0 | 40.0 | 10.0 | 6.0 | 1.0 | 46.0 | 46.0 | 4.0 | 2.0 | 2.0 | 44.0 | 28.0 | 22.0 | 5.0 | 1.0 | 39.0 | 32.0 | 16.0 | 6.0 | 8.0 | 57.0 | 29.0 | 9.0 | 2.0 | 2.0 | 45.0 | 28.0 | 22.0 | 5.0 | 0.0 | 49.0 | 42.0 | 3.0 | 3.0 | 2.0 | 43.0 | 48.0 | 7.0 | 2.0 | 0.0 | 45.0 | 40.0 | 7.0 | 3.0 | 5.0 | 42.0 | 44.0 | 3.0 | 6.0 | 5.0 | NaN | NaN | NaN | NaN | NaN | 69.0 | 77.0 | 24.0 | 8.0 | 1.0 | 34.0 | 22.0 | 62.0 | 30.0 | 22.0 | 36.0 | 46.0 | 11.0 | 6.0 | 1.0 | 28.0 | 33.0 | 0.0 | 5.0 | 34.0 | 45.0 | 51.0 | 1.0 | 2.0 | 1.0 | 48.0 | 51.0 | 1.0 | 0.0 | 0.0 | 41.0 | 49.0 | 3.0 | 3.0 | 2.0 | 49.0 | 39.0 | 3.0 | 4.0 | 6.0 | 17.0 | 40.0 | 11.0 | 5.0 | 26.0 | 69.0 | 8.0 | 4.0 | 5.0 | 14.0 | 80.0 | 3.0 | 3.0 | 0.0 | 13.0 | 65.0 | 13.0 | 1.0 | 0.0 | 22.0 | 85.0 | 0.0 | 0.0 | 0.0 | 15.0 | 84.0 | 0.0 | 0.0 | 0.0 | 16.0 | 5.0 | 18.0 | 24.0 | 3.0 | 6.0 | 3.0 | 10.0 | 16.0 | 15.0 | 0.0 | 50.0 | 60.0 | 14.0 | 63.0 | 16.0 | 14.0 | 70.0 | 27.0 | 14.0 | 66.0 | 3.0 | 0.0 | 54.0 | 38.0 | 6.0 | 2.0 | 44.0 | 42.0 | 9.0 | 4.0 | 48.0 | 40.0 | 9.0 | 2.0 | 49.0 | 39.0 | 10.0 | 1.0 | 46.0 | 47.0 | 7.0 | 1.0 | 49.0 | 37.0 | 9.0 | 4.0 | 11.0 | 48.0 | 19.0 | 5.0 | 17.0 | 10.0 | 49.0 | 15.0 | 2.0 | 24.0 | 8.0 | 54.0 | 14.0 | 7.0 | 17.0 | 14.0 | 56.0 | 10.0 | 6.0 | 14.0 | 8.0 | 29.0 | 25.0 | 5.0 | 32.0 | 7.0 | 29.0 | 23.0 | 5.0 | 36.0 | 7.0 | 29.0 | 21.0 | 7.0 | 36.0 | 7.0 | 31.0 | 22.0 | 7.0 | 33.0 | 3.0 | 16.0 | 7.0 | 16.0 | 11.0 | 8.0 | 25.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 51.0 | 33.0 | 1.0 | 4.0 | 0.0 | 36.0 | 45.0 | 3.0 | 4.0 | 0.0 | 46.0 | 36.0 | 2.0 | 1.0 | 2.0 | 52.0 | 30.0 | 2.0 | 1.0 | 0.0 | 46.0 | 35.0 | 4.0 | 3.0 | 0.0 | 40.0 | 33.0 | 3.0 | 1.0 | 7.0 | 38.0 | 35.0 | 9.0 | 5.0 | 1.0 | 39.0 | 39.0 | 3.0 | 2.0 | 2.0 | 39.0 | 25.0 | 19.0 | 4.0 | 1.0 | 34.0 | 28.0 | 14.0 | 5.0 | 7.0 | 50.0 | 25.0 | 8.0 | 2.0 | 2.0 | 40.0 | 25.0 | 19.0 | 4.0 | 0.0 | 43.0 | 37.0 | 3.0 | 3.0 | 2.0 | 38.0 | 42.0 | 6.0 | 2.0 | 0.0 | 39.0 | 35.0 | 6.0 | 3.0 | 4.0 | 37.0 | 39.0 | 3.0 | 5.0 | 4.0 | NaN | NaN | NaN | NaN | NaN | 62.0 | 69.0 | 22.0 | 7.0 | 1.0 | 31.0 | 20.0 | 56.0 | 27.0 | 20.0 | 32.0 | 41.0 | 10.0 | 5.0 | 1.0 | 23.0 | 27.0 | 0.0 | 4.0 | 28.0 | 40.0 | 45.0 | 1.0 | 2.0 | 1.0 | 42.0 | 45.0 | 1.0 | 0.0 | 0.0 | 36.0 | 43.0 | 3.0 | 3.0 | 2.0 | 34.0 | 27.0 | 2.0 | 3.0 | 4.0 | 15.0 | 35.0 | 10.0 | 4.0 | 23.0 | 58.0 | 7.0 | 3.0 | 4.0 | 12.0 | 70.0 | 3.0 | 3.0 | 0.0 | 11.0 | 57.0 | 11.0 | 1.0 | 0.0 | 19.0 | 74.0 | 0.0 | 0.0 | 0.0 | 13.0 | 74.0 | 0.0 | 0.0 | 0.0 | 14.0 | 3.0 | 11.0 | 15.0 | 2.0 | 4.0 | 2.0 | 6.0 | 10.0 | 9.0 | 0.0 | 45.0 | 54.0 | 13.0 | 57.0 | 14.0 | 13.0 | 63.0 | 24.0 | 13.0 | 59.0 | 3.0 | 0.0 | 49.0 | 34.0 | 5.0 | 2.0 | 40.0 | 38.0 | 8.0 | 4.0 | 43.0 | 36.0 | 8.0 | 2.0 | 44.0 | 35.0 | 9.0 | 1.0 | 41.0 | 42.0 | 6.0 | 1.0 | 44.0 | 33.0 | 8.0 | 4.0 | 7.0 | 30.0 | 12.0 | 3.0 | 11.0 | 6.0 | 29.0 | 9.0 | 1.0 | 14.0 | 5.0 | 32.0 | 8.0 | 4.0 | 10.0 | 9.0 | 35.0 | 6.0 | 4.0 | 9.0 | 5.0 | 17.0 | 15.0 | 3.0 | 19.0 | 4.0 | 16.0 | 13.0 | 3.0 | 20.0 | 4.0 | 16.0 | 12.0 | 4.0 | 20.0 | 4.0 | 17.0 | 12.0 | 4.0 | 18.0 | 8.3 | 8.4 | 8.6 | 8.0 | 8.8 | 8.9 | 8.9 | 6.5 | 8.8 | 7.4 | 7.6 | 9.7 | 9.2 | 8.9 | 9.8 | 8.6 | 6.4 | 7.7 | 7.7 | 7.0 | 6.1 | 5.7 | 6.0 | 8.5 | 8.1 | 8.3 | 8.1 | 7.8 | 7.5 | 6.7 | 8.9 | 7.1 | 7.8 | 7.7 | 8.5 | 7.5 | 7.1 | 8.0 | 8.8 | 7.9 | 7.1 | 9.3 | 9.4 | 9.2 | 8.6 | 8.4 | NaN | 9.8 | 7.1 | 5.9 | 7.8 | 7.5 | 7.9 | 7.6 | 9.0 | 7.5 | 8.2 | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | 41.0 | 55.0 | 0.0 | 5.0 | 36.0 | 59.0 | 5.0 | 0.0 | 30.0 | 52.0 | 13.0 | 4.0 | 48.0 | 43.0 | 10.0 | 0.0 | 30.0 | 57.0 | 9.0 | 4.0 | 30.0 | 39.0 | 13.0 | 17.0 | 22.0 | 43.0 | 17.0 | 17.0 | 78.0 | 22.0 | 0.0 | 0.0 | 81.0 | 19.0 | 0.0 | 0.0 | 76.0 | 24.0 | 0.0 | 0.0 | 65.0 | 26.0 | 9.0 | 0.0 | 61.0 | 30.0 | 9.0 | 0.0 | NaN | NaN | NaN | NaN | 83.0 | 0.0 | 9.0 | 87.0 | 4.0 | 0.0 | 48.0 | 35.0 | 13.0 | 0.0 | 4.0 | 83.0 | 0.0 | 0.0 | 87.0 | 17.0 | 48.0 | 26.0 | 61.0 | 0.0 | 30.0 | 91.0 | 0.0 | 0.0 | 9.0 | 70.0 | 13.0 | 30.0 | 57.0 | 9.0 | 50.0 | 40.0 | 5.0 | 5.0 | 50.0 | 27.0 | 9.0 | 9.0 | 5.0 | 0.0 | 4.0 | 0.0 | 0.0 | 96.0 | 77.0 | 14.0 | 9.0 | 0.0 | 0.0 | 17.0 | 52.0 | 22.0 | 9.0 | 30.0 | 57.0 | 9.0 | 4.0 | 43.0 | 48.0 | 9.0 | 0.0 | 52.0 | 43.0 | 4.0 | 0.0 | 61.0 | 35.0 | 0.0 | 4.0 | 61.0 | 35.0 | 4.0 | 0.0 | 52.0 | 29.0 | 19.0 | 0.0 | 24.0 | 43.0 | 24.0 | 10.0 | 38.0 | 52.0 | 5.0 | 5.0 | 48.0 | 48.0 | 0.0 | 5.0 | 52.0 | 33.0 | 5.0 | 10.0 | 71.0 | 29.0 | 0.0 | 0.0 | 71.0 | 29.0 | 0.0 | 0.0 | 50.0 | 35.0 | 10.0 | 5.0 | 0.0 | 40.0 | 45.0 | 15.0 | 0.0 | 0.0 | 55.0 | 35.0 | 10.0 | 0.0 | 0.0 | 60.0 | 35.0 | 5.0 | 0.0 | 0.0 | 45.0 | 40.0 | 10.0 | 5.0 | 0.0 | 32.0 | 50.0 | 18.0 | 0.0 | 45.0 | 50.0 | 5.0 | 0.0 | 59.0 | 36.0 | 5.0 | 0.0 | 10.0 | 5.0 | 10.0 | 60.0 | 15.0 | 50.0 | 27.0 | 14.0 | 0.0 | 5.0 | 5.0 | 23.0 | 27.0 | 36.0 | 9.0 | 0.0 | 5.0 | 50.0 | 23.0 | 18.0 | 0.0 | 9.0 | 0.0 | 14.0 | 36.0 | 41.0 | 5.0 | 0.0 | 5.0 | 32.0 | 27.0 | 23.0 | 9.0 | 5.0 | 5.0 | 59.0 | 23.0 | 18.0 | 0.0 | 63.0 | 37.0 | 0.0 | 0.0 | 73.0 | 23.0 | 5.0 | 0.0 | 0.0 | 9.0 | 14.0 | 77.0 | 5.0 | 18.0 | 55.0 | 23.0 | 0.0 | 0.0 | 36.0 | 64.0 | 36.0 | 55.0 | 5.0 | 5.0 | 36.0 | 55.0 | 9.0 | 0.0 | 68.0 | 27.0 | 5.0 | 0.0 | 0.0 | 0.0 | 9.0 | 91.0 | 0.0 | 0.0 | 23.0 | 77.0 | 73.0 | 23.0 | 5.0 | 0.0 | 0.0 | 0.0 | 5.0 | 95.0 | 67.0 | 29.0 | 0.0 | 5.0 | 40.0 | 27.0 | 20.0 | 13.0 | 9.0 | 32.0 | 5.0 | 9.0 | 45.0 | 9.0 | 18.0 | 14.0 | 14.0 | 45.0 | 9.0 | 23.0 | 14.0 | 9.0 | 45.0 | 5.0 | 27.0 | 14.0 | 9.0 | 45.0 | 0.0 | 23.0 | 18.0 | 36.0 | 23.0 | 0.0 | 14.0 | 18.0 | 41.0 | 27.0 | 0.0 | 18.0 | 23.0 | 36.0 | 23.0 | 0.0 | 18.0 | 23.0 | 32.0 | 27.0 | 5.0 | 15.0 | 55.0 | 10.0 | 15.0 | 50.0 | 23.0 | 23.0 | 5.0 | 45.0 | 41.0 | 14.0 | 0.0 | 41.0 | 36.0 | 18.0 | 5.0 | 73.0 | 27.0 | 0.0 | 0.0 | 68.0 | 32.0 | 0.0 | 0.0 | 71.0 | 29.0 | 0.0 | 0.0 | 9.0 | 12.0 | 0.0 | 1.0 | 8.0 | 13.0 | 1.0 | 0.0 | 7.0 | 12.0 | 3.0 | 1.0 | 10.0 | 9.0 | 2.0 | 0.0 | 7.0 | 13.0 | 2.0 | 1.0 | 7.0 | 9.0 | 3.0 | 4.0 | 5.0 | 10.0 | 4.0 | 4.0 | 18.0 | 5.0 | 0.0 | 0.0 | 17.0 | 4.0 | 0.0 | 0.0 | 16.0 | 5.0 | 0.0 | 0.0 | 15.0 | 6.0 | 2.0 | 0.0 | 14.0 | 7.0 | 2.0 | 0.0 | NaN | NaN | NaN | NaN | 19.0 | 0.0 | 2.0 | 20.0 | 1.0 | 0.0 | 11.0 | 8.0 | 3.0 | 0.0 | 1.0 | 19.0 | 0.0 | 0.0 | 20.0 | 4.0 | 11.0 | 6.0 | 14.0 | 0.0 | 7.0 | 21.0 | 0.0 | 0.0 | 2.0 | 16.0 | 3.0 | 7.0 | 13.0 | 2.0 | 10.0 | 8.0 | 1.0 | 1.0 | 11.0 | 6.0 | 2.0 | 2.0 | 1.0 | 0.0 | 1.0 | 0.0 | 0.0 | 22.0 | 17.0 | 3.0 | 2.0 | 0.0 | 0.0 | 4.0 | 12.0 | 5.0 | 2.0 | 7.0 | 13.0 | 2.0 | 1.0 | 10.0 | 11.0 | 2.0 | 0.0 | 12.0 | 10.0 | 1.0 | 0.0 | 14.0 | 8.0 | 0.0 | 1.0 | 14.0 | 8.0 | 1.0 | 0.0 | 11.0 | 6.0 | 4.0 | 0.0 | 5.0 | 9.0 | 5.0 | 2.0 | 8.0 | 11.0 | 1.0 | 1.0 | 10.0 | 10.0 | 0.0 | 1.0 | 11.0 | 7.0 | 1.0 | 2.0 | 15.0 | 6.0 | 0.0 | 0.0 | 15.0 | 6.0 | 0.0 | 0.0 | 10.0 | 7.0 | 2.0 | 1.0 | 0.0 | 8.0 | 9.0 | 3.0 | 0.0 | 0.0 | 11.0 | 7.0 | 2.0 | 0.0 | 0.0 | 12.0 | 7.0 | 1.0 | 0.0 | 0.0 | 9.0 | 8.0 | 2.0 | 1.0 | 0.0 | 7.0 | 11.0 | 4.0 | 0.0 | 10.0 | 11.0 | 1.0 | 0.0 | 13.0 | 8.0 | 1.0 | 0.0 | 2.0 | 1.0 | 2.0 | 12.0 | 3.0 | 11.0 | 6.0 | 3.0 | 0.0 | 1.0 | 1.0 | 5.0 | 6.0 | 8.0 | 2.0 | 0.0 | 1.0 | 11.0 | 5.0 | 4.0 | 0.0 | 2.0 | 0.0 | 3.0 | 8.0 | 9.0 | 1.0 | 0.0 | 1.0 | 7.0 | 6.0 | 5.0 | 2.0 | 1.0 | 1.0 | 13.0 | 5.0 | 4.0 | 0.0 | 12.0 | 7.0 | 0.0 | 0.0 | 16.0 | 5.0 | 1.0 | 0.0 | 0.0 | 2.0 | 3.0 | 17.0 | 1.0 | 4.0 | 12.0 | 5.0 | 0.0 | 0.0 | 8.0 | 14.0 | 8.0 | 12.0 | 1.0 | 1.0 | 8.0 | 12.0 | 2.0 | 0.0 | 15.0 | 6.0 | 1.0 | 0.0 | 0.0 | 0.0 | 2.0 | 20.0 | 0.0 | 0.0 | 5.0 | 17.0 | 16.0 | 5.0 | 1.0 | 0.0 | 0.0 | 0.0 | 1.0 | 21.0 | 14.0 | 6.0 | 0.0 | 1.0 | 6.0 | 4.0 | 3.0 | 2.0 | 2.0 | 7.0 | 1.0 | 2.0 | 10.0 | 2.0 | 4.0 | 3.0 | 3.0 | 10.0 | 2.0 | 5.0 | 3.0 | 2.0 | 10.0 | 1.0 | 6.0 | 3.0 | 2.0 | 10.0 | 0.0 | 5.0 | 4.0 | 8.0 | 5.0 | 0.0 | 3.0 | 4.0 | 9.0 | 6.0 | 0.0 | 4.0 | 5.0 | 8.0 | 5.0 | 0.0 | 4.0 | 5.0 | 7.0 | 6.0 | 1.0 | 3.0 | 11.0 | 2.0 | 3.0 | 11.0 | 5.0 | 5.0 | 1.0 | 10.0 | 9.0 | 3.0 | 0.0 | 9.0 | 8.0 | 4.0 | 1.0 | 16.0 | 6.0 | 0.0 | 0.0 | 15.0 | 7.0 | 0.0 | 0.0 | 15.0 | 6.0 | 0.0 | 0.0 | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN |
As we can see above, the resulting dataframe has more than 2000 columns, so we see that we need to reduce it, since we do not need all of them and its easier to work with less columns.
Thanks to the dictionary of the survey data we can keep the columns we know we'll need and remove the other ones.
# copying the data from `DBN` column to `dbn` column to fit the name pattern
survey['DBN'] = survey['dbn']
# selecting the columns we want
columns_filter = ["DBN", "rr_s", "rr_t", "rr_p", "N_s", "N_t", "N_p", "saf_p_11", "com_p_11", "eng_p_11",
"aca_p_11", "saf_t_11", "com_t_11", "eng_t_11", "aca_t_11", "saf_s_11", "com_s_11", "eng_s_11",
"aca_s_11", "saf_tot_11", "com_tot_11", "eng_tot_11", "aca_tot_11"]
# removing the other columns
survey = survey.loc[:, columns_filter]
# adding it to the dictionary
data['survey'] = survey
data['survey'].shape
(1702, 23)
Done that, we need to start cleaning and preparing the information do be displayed and analyzed.
First thing will be to unify our data based on a common column, in our case this common column is DBN
. DBN is the District Borough Number and it is the combination of the District Number, the letter code for the borough and the number of the school.
To unify the datasets using DBN, we need to be sure that all of them are treated and in the same format.
DBN
columns¶We're going to need to change the names of the columns in every dataset but hs_directory
dataframe, so they're all lowercase, and create the dbn
column in the class_size
dataset too.
To help us understand what happened in the change, the loop has some specific phrases that tell us what happened to the entry: name successfully changed, name already in lowercase or no DBN column.
We are also going to use a cool class that makes easy to print text with different colors in python. Bellow we are going to create it, the topic about different font printing in Python was found in StackOverflow here.
class color:
PURPLE = '\033[95m'
CYAN = '\033[96m'
DARKCYAN = '\033[36m'
BLUE = '\033[94m'
GREEN = '\033[92m'
YELLOW = '\033[93m'
RED = '\033[91m'
BOLD = '\033[1m'
UNDERLINE = '\033[4m'
END = '\033[0m'
# changin the name of the DBN columns to lower case (all of them)
for item in data.keys():
if ('DBN') in data[item].columns:
data[item].rename({'DBN':'dbn'}, axis=1, inplace=True)
print("The {} DBN column was changed to lowercase.".format(item))
elif ('dbn') in data[item].columns:
print("The {} DBN column is already lowercase.".format(item))
else:
# let's make this information a litte bit more visible
print(color.BLUE + color.BOLD + "The {} has no DBN.".format(item) + color.END)
The ap_2010 DBN column was changed to lowercase. The class_size has no DBN. The demographics DBN column was changed to lowercase. The graduation DBN column was changed to lowercase. The hs_directory DBN column is already lowercase. The math_test_results DBN column was changed to lowercase. The sat_results DBN column was changed to lowercase. The school_attendence has no DBN. The survey DBN column was changed to lowercase.
As we can see above, the class_size
and school_attendence
have no DBN
or dbn
column, let's look at these specific dataframes to see if the information is there, in any other form. But first, let's look at the dbn
values to see how they look like.
# a sample of what the dbn looks like
data['demographics']['dbn'].unique()
array(['01M015', '01M019', '01M020', ..., '32K554', '32K556', '32K564'], dtype=object)
As we can see above, the dbn
values are made of two numbers, followed by a letter and other three numbers. With that in mind we can see that the information we need is already in class_size
and school attendence
. But the school attendence
dataset is not separated by schools, it's separated by District. We are going to leave it as it is for now and treat it later.
Let's start looking at the class_size
columns.
data['class_size'].head()
CSD | BOROUGH | SCHOOL CODE | SCHOOL NAME | GRADE | PROGRAM TYPE | CORE SUBJECT (MS CORE and 9-12 ONLY) | CORE COURSE (MS CORE and 9-12 ONLY) | SERVICE CATEGORY(K-9* ONLY) | NUMBER OF STUDENTS / SEATS FILLED | NUMBER OF SECTIONS | AVERAGE CLASS SIZE | SIZE OF SMALLEST CLASS | SIZE OF LARGEST CLASS | DATA SOURCE | SCHOOLWIDE PUPIL-TEACHER RATIO | |
---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
0 | 1 | M | M015 | P.S. 015 Roberto Clemente | 0K | GEN ED | - | - | - | 19.0 | 1.0 | 19.0 | 19.0 | 19.0 | ATS | NaN |
1 | 1 | M | M015 | P.S. 015 Roberto Clemente | 0K | CTT | - | - | - | 21.0 | 1.0 | 21.0 | 21.0 | 21.0 | ATS | NaN |
2 | 1 | M | M015 | P.S. 015 Roberto Clemente | 01 | GEN ED | - | - | - | 17.0 | 1.0 | 17.0 | 17.0 | 17.0 | ATS | NaN |
3 | 1 | M | M015 | P.S. 015 Roberto Clemente | 01 | CTT | - | - | - | 17.0 | 1.0 | 17.0 | 17.0 | 17.0 | ATS | NaN |
4 | 1 | M | M015 | P.S. 015 Roberto Clemente | 02 | GEN ED | - | - | - | 15.0 | 1.0 | 15.0 | 15.0 | 15.0 | ATS | NaN |
As we can see above, the DBN
is just the union of the CSD
and SCHOOL CODE
columns. But to do so we need to insert an extra 0 to the number when needed, since the DBN
is composed by two numbers in the beginning, not one. After it we can concatenate the other values.
# creating a function to do it to the whole column
def insert_zero(number):
# the number need to be a string to be concatenated
string = str(number)
size = len(string)
# if it is a one digit number, it will turn it into a two digit number
if size == 1:
return string.zfill(2)
# if it is a two digit number, nothing happens
if size == 2:
return string
# applying to the column
data['class_size']['two_digit_csd'] = data['class_size']['CSD'].apply(insert_zero)
# concateneting the columns
data['class_size']['dbn'] = data['class_size']['two_digit_csd'] + data['class_size']['SCHOOL CODE']
data['class_size'].head()
CSD | BOROUGH | SCHOOL CODE | SCHOOL NAME | GRADE | PROGRAM TYPE | CORE SUBJECT (MS CORE and 9-12 ONLY) | CORE COURSE (MS CORE and 9-12 ONLY) | SERVICE CATEGORY(K-9* ONLY) | NUMBER OF STUDENTS / SEATS FILLED | NUMBER OF SECTIONS | AVERAGE CLASS SIZE | SIZE OF SMALLEST CLASS | SIZE OF LARGEST CLASS | DATA SOURCE | SCHOOLWIDE PUPIL-TEACHER RATIO | two_digit_csd | dbn | |
---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
0 | 1 | M | M015 | P.S. 015 Roberto Clemente | 0K | GEN ED | - | - | - | 19.0 | 1.0 | 19.0 | 19.0 | 19.0 | ATS | NaN | 01 | 01M015 |
1 | 1 | M | M015 | P.S. 015 Roberto Clemente | 0K | CTT | - | - | - | 21.0 | 1.0 | 21.0 | 21.0 | 21.0 | ATS | NaN | 01 | 01M015 |
2 | 1 | M | M015 | P.S. 015 Roberto Clemente | 01 | GEN ED | - | - | - | 17.0 | 1.0 | 17.0 | 17.0 | 17.0 | ATS | NaN | 01 | 01M015 |
3 | 1 | M | M015 | P.S. 015 Roberto Clemente | 01 | CTT | - | - | - | 17.0 | 1.0 | 17.0 | 17.0 | 17.0 | ATS | NaN | 01 | 01M015 |
4 | 1 | M | M015 | P.S. 015 Roberto Clemente | 02 | GEN ED | - | - | - | 15.0 | 1.0 | 15.0 | 15.0 | 15.0 | ATS | NaN | 01 | 01M015 |
Following our treatment, we are going to analyze and look into the sat_score
dataset.
sat_score
column in the sat_results
dataframe¶To see what our problem looks like, let's print the dataset to see the columns and the information they store.
# checking out our data
data['sat_results'].head()
dbn | SCHOOL NAME | Num of SAT Test Takers | SAT Critical Reading Avg. Score | SAT Math Avg. Score | SAT Writing Avg. Score | |
---|---|---|---|---|---|---|
0 | 01M292 | HENRY STREET SCHOOL FOR INTERNATIONAL STUDIES | 29 | 355 | 404 | 363 |
1 | 01M448 | UNIVERSITY NEIGHBORHOOD HIGH SCHOOL | 91 | 383 | 423 | 366 |
2 | 01M450 | EAST SIDE COMMUNITY SCHOOL | 70 | 377 | 402 | 370 |
3 | 01M458 | FORSYTH SATELLITE ACADEMY | 7 | 414 | 401 | 359 |
4 | 01M509 | MARTA VALLE HIGH SCHOOL | 44 | 390 | 433 | 384 |
# converting the columns
data['sat_results']['SAT Math Avg. Score'] = pd.to_numeric(data['sat_results']['SAT Math Avg. Score'],
errors='coerce')
data['sat_results']['SAT Critical Reading Avg. Score'] = pd.to_numeric(data['sat_results']['SAT Critical Reading Avg. Score'],
errors='coerce')
data['sat_results']['SAT Writing Avg. Score'] = pd.to_numeric(data['sat_results']['SAT Writing Avg. Score'],
errors='coerce')
# calculating the sat_score column
data['sat_results']['sat_score'] = data['sat_results']['SAT Math Avg. Score'] + data['sat_results']['SAT Critical Reading Avg. Score'] + data['sat_results']['SAT Writing Avg. Score']
data['sat_results'].head()
dbn | SCHOOL NAME | Num of SAT Test Takers | SAT Critical Reading Avg. Score | SAT Math Avg. Score | SAT Writing Avg. Score | sat_score | |
---|---|---|---|---|---|---|---|
0 | 01M292 | HENRY STREET SCHOOL FOR INTERNATIONAL STUDIES | 29 | 355.0 | 404.0 | 363.0 | 1122.0 |
1 | 01M448 | UNIVERSITY NEIGHBORHOOD HIGH SCHOOL | 91 | 383.0 | 423.0 | 366.0 | 1172.0 |
2 | 01M450 | EAST SIDE COMMUNITY SCHOOL | 70 | 377.0 | 402.0 | 370.0 | 1149.0 |
3 | 01M458 | FORSYTH SATELLITE ACADEMY | 7 | 414.0 | 401.0 | 359.0 | 1174.0 |
4 | 01M509 | MARTA VALLE HIGH SCHOOL | 44 | 390.0 | 433.0 | 384.0 | 1207.0 |
Done that, we're going to extract the latitude and longitude values for each school in the hs_directory
, so we can map the schools and uncover any geographic patterns.
hs_directory
¶This will be done using a function that uses a regular expression to take the exact numbers we need.
import re
# latitude extractor
def extractor_lat(string):
coords = re.findall("\(.+\)", string)
lat = coords[0].split(",")[0].replace("(", "")
return lat
# longitude extractor
def extractor_long(string):
coords = re.findall("\(.+\)", string)
long = coords[0].split(",")[1].replace(")", "")
return long
# using the functions to extract the latitude and longitude
data['hs_directory']['lat'] = data['hs_directory']['Location 1'].apply(extractor_lat)
data['hs_directory']['long'] = data['hs_directory']['Location 1'].apply(extractor_long)
print("lat\n", data['hs_directory']['lat'].head(), "\n\n", "long\n", data['hs_directory']['long'].head())
lat 0 40.601989336 1 40.593593811 2 40.692133704 3 40.822303765 4 40.773670507 Name: lat, dtype: object long 0 -73.762834323 1 -73.984729232 2 -73.931503172 3 -73.85596139 4 -73.985268558 Name: long, dtype: object
Once we've done that, we still have to do a few things before combining the data. If we look close enough, we can see that the DBN values in the class_size
dataframe are not unique.
Since we are looking for the average SAT score per school, we need only the data correspondent to the later grades. We are also going to look the program types, each school has multiple program types, we are going to choose the largest category. Beyond that we need to check the class size, that has multiple entries due to the different subjects.
class_size
dataframe to contain unique DBNs¶To do so, we are going to filter the class_size
data so the GRADE
column has only 09-12
grades. Next lets take a look into the PROGRAM TYPE
column, only after it we can move on to the CORE SUBJECT
column.
# creating a new variable to store the information
class_size = data['class_size']
# filtering GRADE values
class_size = class_size[class_size['GRADE '] == '09-12']
# checking the PROGAM TYPE values
class_size['PROGRAM TYPE'].value_counts()
GEN ED 6513 CTT 2953 SPEC ED 1178 Name: PROGRAM TYPE, dtype: int64
As we saw above, GEN ED
is the category with the most amount of entries, with that in mind, we are going to use it.
# filtering the PROGRAM TYPE
class_size = class_size[class_size['PROGRAM TYPE'] == 'GEN ED']
# checking the new df
class_size.describe(include='all')
CSD | BOROUGH | SCHOOL CODE | SCHOOL NAME | GRADE | PROGRAM TYPE | CORE SUBJECT (MS CORE and 9-12 ONLY) | CORE COURSE (MS CORE and 9-12 ONLY) | SERVICE CATEGORY(K-9* ONLY) | NUMBER OF STUDENTS / SEATS FILLED | NUMBER OF SECTIONS | AVERAGE CLASS SIZE | SIZE OF SMALLEST CLASS | SIZE OF LARGEST CLASS | DATA SOURCE | SCHOOLWIDE PUPIL-TEACHER RATIO | two_digit_csd | dbn | |
---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
count | 6513.000000 | 6513 | 6513 | 6513 | 6513 | 6513 | 6513 | 6513 | 6513 | 6513.000000 | 6513.000000 | 6513.000000 | 6513.000000 | 6513.000000 | 6513 | 0.0 | 6513 | 6513 |
unique | NaN | 5 | 583 | 583 | 1 | 1 | 4 | 22 | 1 | NaN | NaN | NaN | NaN | NaN | 1 | NaN | 32 | 583 |
top | NaN | K | K505 | Bronx School for Law, Government and Justice | 09-12 | GEN ED | ENGLISH | Integrated Algebra | - | NaN | NaN | NaN | NaN | NaN | STARS | NaN | 02 | 09X505 |
freq | NaN | 1927 | 21 | 21 | 6513 | 6513 | 1977 | 449 | 6513 | NaN | NaN | NaN | NaN | NaN | 6513 | NaN | 814 | 21 |
mean | 14.266697 | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | 177.045755 | 6.682788 | 24.748549 | 19.675725 | 28.739751 | NaN | NaN | NaN | NaN |
std | 9.275239 | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | 253.464004 | 8.506092 | 5.499972 | 6.473547 | 6.315539 | NaN | NaN | NaN | NaN |
min | 1.000000 | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | 6.000000 | 1.000000 | 6.000000 | 5.000000 | 6.000000 | NaN | NaN | NaN | NaN |
25% | 7.000000 | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | 54.000000 | 2.000000 | 21.200000 | 14.000000 | 25.000000 | NaN | NaN | NaN | NaN |
50% | 13.000000 | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | 95.000000 | 4.000000 | 25.000000 | 19.000000 | 30.000000 | NaN | NaN | NaN | NaN |
75% | 22.000000 | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | 184.000000 | 7.000000 | 28.800000 | 24.000000 | 34.000000 | NaN | NaN | NaN | NaN |
max | 32.000000 | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | 2965.000000 | 100.000000 | 95.000000 | 95.000000 | 95.000000 | NaN | NaN | NaN | NaN |
Now that we've filtered the information, we still need to group the information to show it per DBN. Looking closely into the columns, we can see that the class sizes are separated into major subjects and other specific subjects related. This isn't relevant for us, since our objective is to analyze data per school.
# looking into the CORE SUBJECT column
class_size.head()
CSD | BOROUGH | SCHOOL CODE | SCHOOL NAME | GRADE | PROGRAM TYPE | CORE SUBJECT (MS CORE and 9-12 ONLY) | CORE COURSE (MS CORE and 9-12 ONLY) | SERVICE CATEGORY(K-9* ONLY) | NUMBER OF STUDENTS / SEATS FILLED | NUMBER OF SECTIONS | AVERAGE CLASS SIZE | SIZE OF SMALLEST CLASS | SIZE OF LARGEST CLASS | DATA SOURCE | SCHOOLWIDE PUPIL-TEACHER RATIO | two_digit_csd | dbn | |
---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
225 | 1 | M | M292 | Henry Street School for International Studies | 09-12 | GEN ED | ENGLISH | English 9 | - | 63.0 | 3.0 | 21.0 | 19.0 | 25.0 | STARS | NaN | 01 | 01M292 |
226 | 1 | M | M292 | Henry Street School for International Studies | 09-12 | GEN ED | ENGLISH | English 10 | - | 79.0 | 3.0 | 26.3 | 24.0 | 31.0 | STARS | NaN | 01 | 01M292 |
227 | 1 | M | M292 | Henry Street School for International Studies | 09-12 | GEN ED | ENGLISH | English 11 | - | 38.0 | 2.0 | 19.0 | 16.0 | 22.0 | STARS | NaN | 01 | 01M292 |
228 | 1 | M | M292 | Henry Street School for International Studies | 09-12 | GEN ED | ENGLISH | English 12 | - | 69.0 | 3.0 | 23.0 | 13.0 | 30.0 | STARS | NaN | 01 | 01M292 |
229 | 1 | M | M292 | Henry Street School for International Studies | 09-12 | GEN ED | MATH | Integrated Algebra | - | 53.0 | 3.0 | 17.7 | 16.0 | 21.0 | STARS | NaN | 01 | 01M292 |
With that in mind, we are going to group the dataset calculating the averages per DBN.
# storing the dataset into a new variable
grouped = class_size.groupby('dbn')
# calculating the mean
class_size = grouped.agg(np.mean)
# reseting index and turning dbn into a column again
class_size = class_size.reset_index()
# assigning it back to the dictionary
data['class_size'] = class_size
data['class_size'].head()
dbn | CSD | NUMBER OF STUDENTS / SEATS FILLED | NUMBER OF SECTIONS | AVERAGE CLASS SIZE | SIZE OF SMALLEST CLASS | SIZE OF LARGEST CLASS | SCHOOLWIDE PUPIL-TEACHER RATIO | |
---|---|---|---|---|---|---|---|---|
0 | 01M292 | 1 | 88.0000 | 4.000000 | 22.564286 | 18.50 | 26.571429 | NaN |
1 | 01M332 | 1 | 46.0000 | 2.000000 | 22.000000 | 21.00 | 23.500000 | NaN |
2 | 01M378 | 1 | 33.0000 | 1.000000 | 33.000000 | 33.00 | 33.000000 | NaN |
3 | 01M448 | 1 | 105.6875 | 4.750000 | 22.231250 | 18.25 | 27.062500 | NaN |
4 | 01M450 | 1 | 57.6000 | 2.733333 | 21.200000 | 19.40 | 22.866667 | NaN |
Next we are going to treat the demographics
dataframe to contain only unique DBNs.
demographics
dataframe to contain unique DBNs¶In this dataframe, the main problem is related to the school year. The dataset has information from various years. In our analysis we are going to use only the most recent data, so we are going to filter the 20112012
data.
# storing the dataset into a new variable
demographics = data['demographics']
# filtering the entries
demographics = demographics[demographics['schoolyear'] == 20112012]
# assigning it back to the dictionary
data['demographics'] = demographics
data['demographics'].head()
dbn | Name | schoolyear | fl_percent | frl_percent | total_enrollment | prek | k | grade1 | grade2 | grade3 | grade4 | grade5 | grade6 | grade7 | grade8 | grade9 | grade10 | grade11 | grade12 | ell_num | ell_percent | sped_num | sped_percent | ctt_num | selfcontained_num | asian_num | asian_per | black_num | black_per | hispanic_num | hispanic_per | white_num | white_per | male_num | male_per | female_num | female_per | |
---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
6 | 01M015 | P.S. 015 ROBERTO CLEMENTE | 20112012 | NaN | 89.4 | 189 | 13 | 31 | 35 | 28 | 25 | 28 | 29 | 20.0 | 10.6 | 40.0 | 21.2 | 23 | 7 | 12 | 6.3 | 63 | 33.3 | 109 | 57.7 | 4 | 2.1 | 97.0 | 51.3 | 92.0 | 48.7 | |||||||
13 | 01M019 | P.S. 019 ASHER LEVY | 20112012 | NaN | 61.5 | 328 | 32 | 46 | 52 | 54 | 52 | 46 | 46 | 33.0 | 10.1 | 59.0 | 18.0 | 16 | 16 | 51 | 15.5 | 81 | 24.7 | 158 | 48.2 | 28 | 8.5 | 147.0 | 44.8 | 181.0 | 55.2 | |||||||
20 | 01M020 | PS 020 ANNA SILVER | 20112012 | NaN | 92.5 | 626 | 52 | 102 | 121 | 87 | 88 | 85 | 91 | 128.0 | 20.4 | 97.0 | 15.5 | 49 | 31 | 190 | 30.4 | 55 | 8.8 | 357 | 57.0 | 16 | 2.6 | 330.0 | 52.7 | 296.0 | 47.3 | |||||||
27 | 01M034 | PS 034 FRANKLIN D ROOSEVELT | 20112012 | NaN | 99.7 | 401 | 14 | 34 | 38 | 36 | 45 | 28 | 40 | 55 | 55 | 56 | 34.0 | 8.5 | 106.0 | 26.4 | 59 | 16 | 22 | 5.5 | 90 | 22.4 | 275 | 68.6 | 8 | 2.0 | 204.0 | 50.9 | 197.0 | 49.1 | ||||
35 | 01M063 | PS 063 WILLIAM MCKINLEY | 20112012 | NaN | 78.9 | 176 | 18 | 20 | 30 | 21 | 31 | 26 | 30 | 6.0 | 3.4 | 45.0 | 25.6 | 34 | 4 | 9 | 5.1 | 41 | 23.3 | 110 | 62.5 | 15 | 8.5 | 97.0 | 55.1 | 79.0 | 44.9 |
Done that we will move to the last dataframe to condense gradutation
.
graduation
dataframe to contain unique DBNs¶In the graduation dataframe, the Demographic
and Cohort
are the ones preventing the DBN to be unique. Cohort
appears to refer to the year the data represents, and the Demographic
appears to refer to a specific demographic group. In this case, we want to pick data from the most recent Cohort available, which is 2006. We also want data from the full cohort, so we'll only pick rows where Demographic is Total Cohort.
Let's filter the dataset.
# storing the dataset into a new variable
graduation = data['graduation']
# filtering both columns
graduation = graduation[graduation['Cohort'] == '2006']
graduation = graduation[graduation['Demographic'] == 'Total Cohort']
# assigning it back to the dictionary
data['graduation'] = graduation
data['graduation'].head()
Demographic | dbn | School Name | Cohort | Total Cohort | Total Grads - n | Total Grads - % of cohort | Total Regents - n | Total Regents - % of cohort | Total Regents - % of grads | Advanced Regents - n | Advanced Regents - % of cohort | Advanced Regents - % of grads | Regents w/o Advanced - n | Regents w/o Advanced - % of cohort | Regents w/o Advanced - % of grads | Local - n | Local - % of cohort | Local - % of grads | Still Enrolled - n | Still Enrolled - % of cohort | Dropped Out - n | Dropped Out - % of cohort | |
---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
3 | Total Cohort | 01M292 | HENRY STREET SCHOOL FOR INTERNATIONAL | 2006 | 78 | 43 | 55.1 | 36 | 46.2 | 83.7 | 0 | 0.0 | 0.0 | 36 | 46.2 | 83.7 | 7 | 9.0 | 16.3 | 16 | 20.5 | 11 | 14.1 |
10 | Total Cohort | 01M448 | UNIVERSITY NEIGHBORHOOD HIGH SCHOOL | 2006 | 124 | 53 | 42.7 | 42 | 33.9 | 79.2 | 8 | 6.5 | 15.1 | 34 | 27.4 | 64.2 | 11 | 8.9 | 20.8 | 46 | 37.1 | 20 | 16.1 |
17 | Total Cohort | 01M450 | EAST SIDE COMMUNITY SCHOOL | 2006 | 90 | 70 | 77.8 | 67 | 74.4 | 95.7 | 0 | 0.0 | 0.0 | 67 | 74.4 | 95.7 | 3 | 3.3 | 4.3 | 15 | 16.7 | 5 | 5.6 |
24 | Total Cohort | 01M509 | MARTA VALLE HIGH SCHOOL | 2006 | 84 | 47 | 56.0 | 40 | 47.6 | 85.1 | 17 | 20.2 | 36.2 | 23 | 27.4 | 48.9 | 7 | 8.3 | 14.9 | 25 | 29.8 | 5 | 6.0 |
31 | Total Cohort | 01M515 | LOWER EAST SIDE PREPARATORY HIGH SCHO | 2006 | 193 | 105 | 54.4 | 91 | 47.2 | 86.7 | 69 | 35.8 | 65.7 | 22 | 11.4 | 21.0 | 14 | 7.3 | 13.3 | 53 | 27.5 | 35 | 18.1 |
After treating the unique DBNs, we still need to treat the ap_2010
dataframe, because it has numeric values stored as strings.
There are three columns we need this change to happen: AP Test Takers
, Total Exams Taken
and Number of Exams with scores 3 4 or 5
. We'll do a loop to convert all of them.
# creating a list with the columns we need to convert
cols = ['AP Test Takers ', 'Total Exams Taken', 'Number of Exams with scores 3 4 or 5']
# loop to conversion
for col in cols:
data['ap_2010'][col] = pd.to_numeric(data['ap_2010'][col], errors='coerce')
data['ap_2010'].dtypes
dbn object SchoolName object AP Test Takers float64 Total Exams Taken float64 Number of Exams with scores 3 4 or 5 float64 dtype: object
Now we are finally ready do merge our datasets.
To do so, we are going to merge the data in a strategic way to always keep the most amount of DBNs possible, not removing any entry.
With the objective of not losing any important value, we are going to merge the datasets using two different approaches, left and inner join.
# storing the dataset into a new variable
combined = data['sat_results']
# combining dataset per dataset, based on the DBNs in the sat_results
combined = combined.merge(data['ap_2010'], how='left', on='dbn')
combined = combined.merge(data['graduation'], how='left', on='dbn')
print(combined.shape)
combined.head()
(479, 33)
dbn | SCHOOL NAME | Num of SAT Test Takers | SAT Critical Reading Avg. Score | SAT Math Avg. Score | SAT Writing Avg. Score | sat_score | SchoolName | AP Test Takers | Total Exams Taken | Number of Exams with scores 3 4 or 5 | Demographic | School Name | Cohort | Total Cohort | Total Grads - n | Total Grads - % of cohort | Total Regents - n | Total Regents - % of cohort | Total Regents - % of grads | Advanced Regents - n | Advanced Regents - % of cohort | Advanced Regents - % of grads | Regents w/o Advanced - n | Regents w/o Advanced - % of cohort | Regents w/o Advanced - % of grads | Local - n | Local - % of cohort | Local - % of grads | Still Enrolled - n | Still Enrolled - % of cohort | Dropped Out - n | Dropped Out - % of cohort | |
---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
0 | 01M292 | HENRY STREET SCHOOL FOR INTERNATIONAL STUDIES | 29 | 355.0 | 404.0 | 363.0 | 1122.0 | NaN | NaN | NaN | NaN | Total Cohort | HENRY STREET SCHOOL FOR INTERNATIONAL | 2006 | 78.0 | 43 | 55.1 | 36 | 46.2 | 83.7 | 0 | 0.0 | 0.0 | 36 | 46.2 | 83.7 | 7 | 9.0 | 16.3 | 16 | 20.5 | 11 | 14.1 |
1 | 01M448 | UNIVERSITY NEIGHBORHOOD HIGH SCHOOL | 91 | 383.0 | 423.0 | 366.0 | 1172.0 | UNIVERSITY NEIGHBORHOOD H.S. | 39.0 | 49.0 | 10.0 | Total Cohort | UNIVERSITY NEIGHBORHOOD HIGH SCHOOL | 2006 | 124.0 | 53 | 42.7 | 42 | 33.9 | 79.2 | 8 | 6.5 | 15.1 | 34 | 27.4 | 64.2 | 11 | 8.9 | 20.8 | 46 | 37.1 | 20 | 16.1 |
2 | 01M450 | EAST SIDE COMMUNITY SCHOOL | 70 | 377.0 | 402.0 | 370.0 | 1149.0 | EAST SIDE COMMUNITY HS | 19.0 | 21.0 | NaN | Total Cohort | EAST SIDE COMMUNITY SCHOOL | 2006 | 90.0 | 70 | 77.8 | 67 | 74.4 | 95.7 | 0 | 0.0 | 0.0 | 67 | 74.4 | 95.7 | 3 | 3.3 | 4.3 | 15 | 16.7 | 5 | 5.6 |
3 | 01M458 | FORSYTH SATELLITE ACADEMY | 7 | 414.0 | 401.0 | 359.0 | 1174.0 | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN |
4 | 01M509 | MARTA VALLE HIGH SCHOOL | 44 | 390.0 | 433.0 | 384.0 | 1207.0 | NaN | NaN | NaN | NaN | Total Cohort | MARTA VALLE HIGH SCHOOL | 2006 | 84.0 | 47 | 56.0 | 40 | 47.6 | 85.1 | 17 | 20.2 | 36.2 | 23 | 27.4 | 48.9 | 7 | 8.3 | 14.9 | 25 | 29.8 | 5 | 6.0 |
# combining the datasets keeping only the entries in both dataframes
combined = combined.merge(data['class_size'], how='inner', on='dbn')
combined = combined.merge(data['demographics'], how='inner', on='dbn')
combined = combined.merge(data['survey'], how='inner', on='dbn')
combined = combined.merge(data['hs_directory'], how='inner', on='dbn')
print(combined.shape)
combined.head()
(363, 164)
dbn | SCHOOL NAME | Num of SAT Test Takers | SAT Critical Reading Avg. Score | SAT Math Avg. Score | SAT Writing Avg. Score | sat_score | SchoolName | AP Test Takers | Total Exams Taken | Number of Exams with scores 3 4 or 5 | Demographic | School Name | Cohort | Total Cohort | Total Grads - n | Total Grads - % of cohort | Total Regents - n | Total Regents - % of cohort | Total Regents - % of grads | Advanced Regents - n | Advanced Regents - % of cohort | Advanced Regents - % of grads | Regents w/o Advanced - n | Regents w/o Advanced - % of cohort | Regents w/o Advanced - % of grads | Local - n | Local - % of cohort | Local - % of grads | Still Enrolled - n | Still Enrolled - % of cohort | Dropped Out - n | Dropped Out - % of cohort | CSD | NUMBER OF STUDENTS / SEATS FILLED | NUMBER OF SECTIONS | AVERAGE CLASS SIZE | SIZE OF SMALLEST CLASS | SIZE OF LARGEST CLASS | SCHOOLWIDE PUPIL-TEACHER RATIO | Name | schoolyear | fl_percent | frl_percent | total_enrollment | prek | k | grade1 | grade2 | grade3 | grade4 | grade5 | grade6 | grade7 | grade8 | grade9 | grade10 | grade11 | grade12 | ell_num | ell_percent | sped_num | sped_percent | ctt_num | selfcontained_num | asian_num | asian_per | black_num | black_per | hispanic_num | hispanic_per | white_num | white_per | male_num | male_per | female_num | female_per | rr_s | rr_t | rr_p | N_s | N_t | N_p | saf_p_11 | com_p_11 | eng_p_11 | aca_p_11 | saf_t_11 | com_t_11 | eng_t_11 | aca_t_11 | saf_s_11 | com_s_11 | eng_s_11 | aca_s_11 | saf_tot_11 | com_tot_11 | eng_tot_11 | aca_tot_11 | school_name | borough | building_code | phone_number | fax_number | grade_span_min | grade_span_max | expgrade_span_min | expgrade_span_max | bus | subway | primary_address_line_1 | city | state_code | postcode | website | total_students | campus_name | school_type | overview_paragraph | program_highlights | language_classes | advancedplacement_courses | online_ap_courses | online_language_courses | extracurricular_activities | psal_sports_boys | psal_sports_girls | psal_sports_coed | school_sports | partner_cbo | partner_hospital | partner_highered | partner_cultural | partner_nonprofit | partner_corporate | partner_financial | partner_other | addtl_info1 | addtl_info2 | start_time | end_time | se_services | ell_programs | school_accessibility_description | number_programs | priority01 | priority02 | priority03 | priority04 | priority05 | priority06 | priority07 | priority08 | priority09 | priority10 | Location 1 | Community Board | Council District | Census Tract | BIN | BBL | NTA | lat | long | |
---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
0 | 01M292 | HENRY STREET SCHOOL FOR INTERNATIONAL STUDIES | 29 | 355.0 | 404.0 | 363.0 | 1122.0 | NaN | NaN | NaN | NaN | Total Cohort | HENRY STREET SCHOOL FOR INTERNATIONAL | 2006 | 78.0 | 43 | 55.1 | 36 | 46.2 | 83.7 | 0 | 0.0 | 0.0 | 36 | 46.2 | 83.7 | 7 | 9.0 | 16.3 | 16 | 20.5 | 11 | 14.1 | 1 | 88.000000 | 4.000000 | 22.564286 | 18.500000 | 26.571429 | NaN | HENRY STREET SCHOOL FOR INTERNATIONAL STUDIES | 20112012 | NaN | 88.6 | 422 | 32 | 33 | 50 | 98 | 79 | 80 | 50 | 94.0 | 22.3 | 105.0 | 24.9 | 34 | 35 | 59 | 14.0 | 123 | 29.1 | 227 | 53.8 | 7 | 1.7 | 259.0 | 61.4 | 163.0 | 38.6 | 89.0 | 70 | 39 | 379.0 | 26.0 | 151.0 | 7.8 | 7.7 | 7.4 | 7.6 | 6.3 | 5.3 | 6.1 | 6.5 | 6.0 | 5.6 | 6.1 | 6.7 | 6.7 | 6.2 | 6.6 | 7.0 | Henry Street School for International Studies | Manhattan | M056 | 212-406-9411 | 212-406-9417 | 6.0 | 12 | NaN | NaN | B39, M14A, M14D, M15, M15-SBS, M21, M22, M9 | B, D to Grand St ; F to East Broadway ; J, M, ... | 220 Henry Street | New York | NY | 10002 | http://schools.nyc.gov/schoolportals/01/M292 | 323.0 | NaN | NaN | Henry Street School for International Studies ... | Global/International Studies in core subjects,... | Chinese (Mandarin), Spanish | Psychology | Chinese Language and Culture, Spanish Literatu... | Chinese (Mandarin), Spanish | Math through Card Play; Art, Poetry/Spoken Wor... | Softball | Softball | Soccer | Boxing, Track, CHAMPS, Tennis, Flag Football, ... | The Henry Street Settlement; Asia Society; Ame... | Gouverneur Hospital (Turning Points) | New York University | Asia Society | Heart of America Foundation | NaN | NaN | United Nations | NaN | NaN | 8:30 AM | 3:30 PM | This school will provide students with disabil... | ESL | Functionally Accessible | 1 | Priority to continuing 8th graders | Then to Manhattan students or residents who at... | Then to New York City residents who attend an ... | Then to Manhattan students or residents | Then to New York City residents | NaN | NaN | NaN | NaN | NaN | 220 Henry Street\nNew York, NY 10002\n(40.7137... | 3.0 | 1.0 | 201.0 | 1003223.0 | 1.002690e+09 | Lower East Side ... | 40.713763947 | -73.98526004 | |||||||
1 | 01M448 | UNIVERSITY NEIGHBORHOOD HIGH SCHOOL | 91 | 383.0 | 423.0 | 366.0 | 1172.0 | UNIVERSITY NEIGHBORHOOD H.S. | 39.0 | 49.0 | 10.0 | Total Cohort | UNIVERSITY NEIGHBORHOOD HIGH SCHOOL | 2006 | 124.0 | 53 | 42.7 | 42 | 33.9 | 79.2 | 8 | 6.5 | 15.1 | 34 | 27.4 | 64.2 | 11 | 8.9 | 20.8 | 46 | 37.1 | 20 | 16.1 | 1 | 105.687500 | 4.750000 | 22.231250 | 18.250000 | 27.062500 | NaN | UNIVERSITY NEIGHBORHOOD HIGH SCHOOL | 20112012 | NaN | 71.8 | 394 | 109 | 97 | 93 | 95 | 83.0 | 21.1 | 86.0 | 21.8 | 55 | 10 | 115 | 29.2 | 89 | 22.6 | 181 | 45.9 | 9 | 2.3 | 226.0 | 57.4 | 168.0 | 42.6 | 84.0 | 95 | 10 | 385.0 | 37.0 | 46.0 | 7.9 | 7.4 | 7.2 | 7.3 | 6.6 | 5.8 | 6.6 | 7.3 | 6.0 | 5.7 | 6.3 | 7.0 | 6.8 | 6.3 | 6.7 | 7.2 | University Neighborhood High School | Manhattan | M446 | 212-962-4341 | 212-267-5611 | 9.0 | 12 | NaN | NaN | M14A, M14D, M15, M21, M22, M9 | F to East Broadway ; J, M, Z to Delancey St-Es... | 200 Monroe Street | New York | NY | 10002 | www.universityneighborhoodhs.com | 299.0 | NaN | NaN | University Neighborhood High School (UNHS) is ... | While attending UNHS, students can earn up to ... | Chinese, Spanish | Calculus AB, Chinese Language and Culture, Eng... | NaN | Chinese (Cantonese), Chinese (Mandarin), Spanish | Basketball, Badminton, Handball, Glee, Dance, ... | Basketball, Bowling, Cross Country, Softball, ... | Basketball, Bowling, Cross Country, Softball, ... | NaN | NaN | Grand Street Settlement, Henry Street Settleme... | Gouverneur Hospital, The Door, The Mount Sinai... | New York University, CUNY Baruch College, Pars... | Dance Film Association, Dance Makers Film Work... | W!SE, Big Brothers Big Sisters, Peer Health Ex... | Deloitte LLP Consulting and Financial Services... | NaN | Movement Research | Incoming students are expected to attend schoo... | Community Service Requirement, Dress Code Requ... | 8:15 AM | 3:15 PM | This school will provide students with disabil... | ESL | Not Functionally Accessible | 3 | Open to New York City residents | For M35B only: Open only to students whose hom... | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | 200 Monroe Street\nNew York, NY 10002\n(40.712... | 3.0 | 1.0 | 202.0 | 1003214.0 | 1.002590e+09 | Lower East Side ... | 40.712331851001 | -73.984796625 | ||||||||||
2 | 01M450 | EAST SIDE COMMUNITY SCHOOL | 70 | 377.0 | 402.0 | 370.0 | 1149.0 | EAST SIDE COMMUNITY HS | 19.0 | 21.0 | NaN | Total Cohort | EAST SIDE COMMUNITY SCHOOL | 2006 | 90.0 | 70 | 77.8 | 67 | 74.4 | 95.7 | 0 | 0.0 | 0.0 | 67 | 74.4 | 95.7 | 3 | 3.3 | 4.3 | 15 | 16.7 | 5 | 5.6 | 1 | 57.600000 | 2.733333 | 21.200000 | 19.400000 | 22.866667 | NaN | EAST SIDE COMMUNITY HIGH SCHOOL | 20112012 | NaN | 71.8 | 598 | 92 | 73 | 76 | 101 | 93 | 77 | 86 | 30.0 | 5.0 | 158.0 | 26.4 | 91 | 19 | 58 | 9.7 | 143 | 23.9 | 331 | 55.4 | 62 | 10.4 | 327.0 | 54.7 | 271.0 | 45.3 | 0.0 | 98 | 28 | NaN | 42.0 | 150.0 | 8.7 | 8.2 | 8.1 | 8.4 | 7.3 | 8.0 | 8.0 | 8.8 | NaN | NaN | NaN | NaN | 7.9 | 7.9 | 7.9 | 8.4 | East Side Community School | Manhattan | M060 | 212-460-8467 | 212-260-9657 | 6.0 | 12 | NaN | NaN | M101, M102, M103, M14A, M14D, M15, M15-SBS, M2... | 6 to Astor Place ; L to 1st Ave | 420 East 12 Street | New York | NY | 10009 | www.eschs.org | 649.0 | NaN | Consortium School | We are a small 6-12 secondary school that prep... | Our Advisory System ensures that we can effect... | NaN | Calculus AB, English Literature and Composition | NaN | American Sign Language, Arabic, Chinese (Manda... | After-School Tutoring, Art Portfolio Classes, ... | Basketball, Soccer, Softball | Basketball, Soccer, Softball | NaN | Basketball, Bicycling, Fitness, Flag Football,... | University Settlement, Big Brothers Big Sister... | NaN | Columbia Teachers College, New York University... | , Internship Program, Loisaida Art Gallery loc... | College Bound Initiative, Center for Collabora... | Prudential Securities, Moore Capital, Morgan S... | NaN | Brooklyn Boulders (Rock Climbing) | Students present and defend their work to comm... | Our school requires an Academic Portfolio for ... | 8:30 AM | 3:30 PM | This school will provide students with disabil... | ESL | Not Functionally Accessible | 1 | Priority to continuing 8th graders | Then to New York City residents | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | 420 East 12 Street\nNew York, NY 10009\n(40.72... | 3.0 | 2.0 | 34.0 | 1005974.0 | 1.004390e+09 | East Village ... | 40.729782687 | -73.983041441 | |||||||
3 | 01M509 | MARTA VALLE HIGH SCHOOL | 44 | 390.0 | 433.0 | 384.0 | 1207.0 | NaN | NaN | NaN | NaN | Total Cohort | MARTA VALLE HIGH SCHOOL | 2006 | 84.0 | 47 | 56.0 | 40 | 47.6 | 85.1 | 17 | 20.2 | 36.2 | 23 | 27.4 | 48.9 | 7 | 8.3 | 14.9 | 25 | 29.8 | 5 | 6.0 | 1 | 69.642857 | 3.000000 | 23.571429 | 20.000000 | 27.357143 | NaN | MARTA VALLE SECONDARY SCHOOL | 20112012 | NaN | 80.7 | 367 | 143 | 100 | 51 | 73 | 41.0 | 11.2 | 95.0 | 25.9 | 28 | 36 | 34 | 9.3 | 116 | 31.6 | 209 | 56.9 | 6 | 1.6 | 170.0 | 46.3 | 197.0 | 53.7 | 90.0 | 100 | 21 | 306.0 | 29.0 | 69.0 | 7.7 | 7.4 | 7.2 | 7.3 | 6.4 | 5.3 | 6.1 | 6.8 | 6.4 | 5.9 | 6.4 | 7.0 | 6.9 | 6.2 | 6.6 | 7.0 | Marta Valle High School | Manhattan | M025 | 212-473-8152 | 212-475-7588 | 9.0 | 12 | NaN | NaN | B39, M103, M14A, M14D, M15, M15-SBS, M21, M22,... | B, D to Grand St ; F, J, M, Z to Delancey St-E... | 145 Stanton Street | New York | NY | 10002 | www.martavalle.org | 401.0 | NaN | NaN | Marta Valle High School (MVHS) offers a strong... | Advanced Regents Diploma, Early Graduation, up... | French, Spanish | English Literature and Composition, Studio Art... | NaN | Spanish | Model Peer Leadership Program, 'The Vine' Stud... | Rugby, Volleyball | Rugby, Volleyball | Rugby | Volleyball, Zumba | NYCDOE Innovation Zone Lab Site, Grand Street ... | Gouvenuer's Hospital | New York University (NYU), Sarah Lawrence Coll... | Young Audiences, The National Arts Club, Educa... | College for Every Student (CFES), Morningside ... | Estée Lauder | Bank of America | CASALEAP, Beacon | Students Dress for Success, Summer Bridge to S... | Community Service Requirement, Extended Day Pr... | 8:00 AM | 3:30 PM | This school will provide students with disabil... | ESL | Functionally Accessible | 1 | Priority to District 1 students or residents | Then to Manhattan students or residents | Then to New York City residents | NaN | NaN | NaN | NaN | NaN | NaN | NaN | 145 Stanton Street\nNew York, NY 10002\n(40.72... | 3.0 | 1.0 | 3001.0 | 1004323.0 | 1.003540e+09 | Chinatown ... | 40.720569079 | -73.985672691 | ||||||||||
4 | 01M539 | NEW EXPLORATIONS INTO SCIENCE, TECHNOLOGY AND ... | 159 | 522.0 | 574.0 | 525.0 | 1621.0 | NEW EXPLORATIONS SCI,TECH,MATH | 255.0 | 377.0 | 191.0 | Total Cohort | NEW EXPLORATIONS INTO SCIENCE TECHNO | 2006 | 46.0 | 46 | 100.0 | 46 | 100.0 | 100.0 | 31 | 67.4 | 67.4 | 15 | 32.6 | 32.6 | 0 | 0.0 | 0.0 | 0 | 0.0 | 0 | 0.0 | 1 | 156.368421 | 6.157895 | 25.510526 | 19.473684 | 31.210526 | NaN | NEW EXPLORATIONS INTO SCIENCE TECH AND MATH | 20112012 | NaN | 23.0 | 1613 | 100 | 107 | 139 | 110 | 114 | 107 | 149 | 126 | 117 | 117 | 123 | 147 | 157 | 4.0 | 0.2 | 43.0 | 2.7 | 2 | 0 | 448 | 27.8 | 189 | 11.7 | 229 | 14.2 | 725 | 44.9 | 794.0 | 49.2 | 819.0 | 50.8 | 98.0 | 68 | 51 | 923.0 | 67.0 | 736.0 | 8.5 | 7.9 | 7.9 | 8.4 | 7.6 | 5.6 | 5.9 | 7.3 | 7.3 | 6.4 | 7.0 | 7.7 | 7.8 | 6.7 | 6.9 | 7.8 | New Explorations into Science, Technology and ... | Manhattan | M022 | 212-677-5190 | 212-260-8124 | NaN | 12 | NaN | NaN | B39, M14A, M14D, M21, M22, M8, M9 | F, J, M, Z to Delancey St-Essex St | 111 Columbia Street | New York | NY | 10002 | www.nestmk12.net | 1725.0 | NaN | NaN | New Explorations into Science, Technology and ... | 1st level science sequence - 9th grade: Regent... | Chinese (Mandarin), French, Italian, Latin, Sp... | Biology, Calculus AB, Calculus BC, Chemistry, ... | NaN | NaN | After-school Jazz Band, Annual Coffee House Co... | Basketball, Fencing, Indoor Track | Basketball, Fencing, Indoor Track | NaN | Badminton, Baseball, Cross-Country, Dance, Out... | 7th Precinct Community Affairs, NYCWastele$$, ... | NaN | Hunter College, New York University, Cornell U... | VH1, Dancing Classrooms, Center for Arts Educa... | After 3 | Time Warner Cable, Google, IBM, MET Project, S... | NaN | NaN | Dress Code Required: Business Casual - shirt/b... | NaN | 8:15 AM | 4:00 PM | This school will provide students with disabil... | ESL | Not Functionally Accessible | 1 | Priority to continuing 8th graders | Then to New York City residents | NaN | NaN | NaN | NaN | NaN | NaN | NaN | NaN | 111 Columbia Street\nNew York, NY 10002\n(40.7... | 3.0 | 2.0 | 2201.0 | 1004070.0 | 1.003350e+09 | Lower East Side ... | 40.718725451 | -73.979426386 |
Now that we've combined the data we can see that a lot of entries are missing, this is the result of the left joins we did. It happened because some DBNs did not have that information. To follow our analysis, we are going to fill this values with the mean of the correspondent column.
We are going to use some methods to calculate the means and to fill the blank values with them.
# calculating the means
means = combined.mean()
# filling the missing values
combined = combined.fillna(means)
combined = combined.fillna(0)
# printing null values per column if they exist
for column in combined.columns:
if combined[column].isnull().sum() != 0:
print("{}: {}".format(column, combined[column].isnull().sum()))
else:
pass
Finished with the null values, we'll create a new column in our dataset to make an interesting analysis of the information we have, looking at in from a different angle.
Before analyzing our data, we are going to create a new column in the combined dataset with the two first characters of the schools DBN, correspondent to the district. This will be done with the objective of analyzing the information in a district level.
# creating a function that extracts the first two chars
def two_chars(string):
return string[0:2]
# applying it to the whole column of dbn, storing in a new column
combined['school_dist'] = combined['dbn'].apply(two_chars)
combined['school_dist'].head()
0 01 1 01 2 01 3 01 4 01 Name: school_dist, dtype: object
Once we've done that, we can start to look for insights in the dataset we've built. First thin we are going to do is look for correlations.
Searching for correlations in a table manner would be very inconvenient for our data, since it has too many columns. With that in mind, we are going to plot heatmaps per group containing the correlations.
We will start treating the dataframe to plot the heatmaps, after it we will create variables containing the columns of each group. We will start the analysis with the surveys of the parents, students and teachers.
corr = pd.DataFrame(combined.corr()['sat_score'])
corr.sort_values('sat_score', ascending=False, inplace=True)
corr.head(15)
sat_score | |
---|---|
sat_score | 1.000000 |
SAT Writing Avg. Score | 0.987771 |
SAT Critical Reading Avg. Score | 0.986820 |
SAT Math Avg. Score | 0.972643 |
Advanced Regents - % of cohort | 0.771566 |
Advanced Regents - % of grads | 0.739927 |
Total Regents - % of cohort | 0.667603 |
white_per | 0.620718 |
Total Grads - % of cohort | 0.584234 |
asian_per | 0.570730 |
AP Test Takers | 0.523140 |
Total Exams Taken | 0.514333 |
Total Regents - % of grads | 0.494732 |
asian_num | 0.475445 |
Number of Exams with scores 3 4 or 5 | 0.463245 |
After treating the data to be plotted, we can start the analysis.
The columns related to surveys were easy, since we've selected them before when we were merging them to the main dataframe. After plotting the map, we will be able to see which ones are correlated to the sat_results
, with the name of the column, we can consult the dictionary of the data to understand the mean of that number.
# group of columns related to parents, students and teachers surveys
surveys = ['rr_s', 'rr_t', 'rr_p', 'N_s', 'N_t', 'N_p', 'saf_p_11', 'com_p_11', 'eng_p_11', 'aca_p_11', 'saf_t_11',
'com_t_11', 'eng_t_11', 'aca_t_11', 'saf_s_11', 'com_s_11', 'eng_s_11', 'aca_s_11', 'saf_tot_11',
'com_tot_11', 'eng_tot_11', 'aca_tot_11']
# configurating the size of the plot
fig, ax = plt.subplots(figsize=(18, 8))
# plotting a bar graph
barplot = sns.barplot(x=surveys, y='sat_score', data=corr.loc[surveys], ax=ax)
# configurating the plot
plt.setp(fig.axes, yticks=[])
plt.xticks(rotation=45, size=12)
plt.xlabel("")
plt.yticks(size=12)
plt.tick_params(bottom=False)
ax.axhline(0, color="k", clip_on=False)
ax.set_ylabel("", size=12)
ax.set_xlabel("Survey correlations per column", size=12)
ax.set_title("Correlations between Surveys and SAT scores", size=18, pad=30)
sns.despine(bottom=True, left=True, right=True)
sns.set(style="white")
# annotating the values in the bars
for bar in barplot.patches:
barplot.annotate(format(bar.get_height(), '.2f'),
(bar.get_x() + bar.get_width()/2., bar.get_height()),
ha='center', va='center', size=12, xytext=(0,12),
textcoords='offset points')
plt.show()
Checking our graph ant the data dictionary, we can see summarize the information in a table:
Column | Correlation | Information |
---|---|---|
N_s | 0.42 | Number of students respondents. |
N_p | 0.42 | Number of parents respondents. |
saf_s_11 | 0.34 | Safety and respect score based on student responses. |
aca_s_11 | 0.34 | Academic expectations score based on teachers responses. |
saf_tot_11 | 0.32 | Safety and respect total score. |
saf_t_11 | 0.31 | Safety and respect score based on teachers responses. |
Above we can see no strong correlations, just moderate ones. The ones that are higher: Number of students and number of parents respondents, don't tell us much about how the sat score is influenced by the surveys.
On the other hand, it is very interesting to see how the safety scores of teachers and students relate to the sat. Let's plot some graphs to see how they behave per district, checking for different patterns in different locations.
To do so, we are going to do scatter plots per column, with the objective of looking closely to the differences between the safety scores, then we can plot another bar plot to show the correlation with the sat scores. After it we are going to look closer to each Borough's average safety scores and sat_scores.
# configurating the size of the image
fig = plt.figure(figsize=(10,5))
# creating the scatter plot
ax = sns.scatterplot(data=combined, x='sat_score', y='saf_s_11', hue='borough')
# configurating the plot
ax.set_ylabel("", size=12)
ax.set_xlabel("SAT scores", size=12)
ax.set_title("Correlation between safety scores by students and SAT scores", size=18, pad=30)
plt.setp(fig.axes, yticks=[])
plt.xticks(size=12)
plt.xlabel("")
plt.yticks(size=12)
plt.tick_params(bottom=False)
sns.despine(bottom=True, left=True, right=True)
sns.set(style="white")
plt.show()
# configurating the size of the image
fig = plt.figure(figsize=(10,5))
# creating the scatter plot
ax = sns.scatterplot(data=combined, x='sat_score', y='saf_tot_11', hue='borough')
# configurating the plot
ax.set_ylabel("total safety scores", size=12)
ax.set_xlabel("SAT scores", size=12)
ax.set_title("Correlation between total safety scores and SAT scores", size=18, pad=30)
plt.xticks(size=12)
plt.yticks(size=12)
plt.tick_params(bottom=False)
sns.despine(bottom=True, left=True, right=True)
sns.set(style="white")
plt.show()
Based on the graphs above, we can see that in the SAT scores until 1400 there's no visible correlation, making us believe that the safety scores doesn't make a significant difference. On the other hand, between 1400 and 2000 we see no schools with safety scores lower than 7, also there's a small positive correlation, showing that the safer could have greater grades. It is a little bit tricky to get, maybe looking closer into the borough's overall safety, we can find more significant information.
# grouping per district
group_by = ['saf_s_11', 'saf_tot_11', 'saf_t_11', 'sat_score']
borough_group = combined.pivot_table(values=group_by, columns = 'borough', aggfunc=np.mean)
borough_group = borough_group.T
borough_group
saf_s_11 | saf_t_11 | saf_tot_11 | sat_score | |
---|---|---|---|---|
borough | ||||
Bronx | 6.606577 | 7.026882 | 7.322581 | 1157.598203 |
Brooklyn | 6.370755 | 6.985849 | 7.129245 | 1181.364461 |
Manhattan | 6.831370 | 7.287778 | 7.473333 | 1278.331410 |
Queens | 6.721875 | 7.365625 | 7.387500 | 1286.753032 |
Staten Island | 6.530000 | 7.210000 | 7.200000 | 1382.500000 |
Looking the grouped information, we can see that Brooklyn has the overall smallest safety scores, followed by Staten Island and Bronx. This makes us believe that people that live in this boroughs have a sense of insecurity and it, somehow, relates to the SAT score of the students.
After this analysis, we are going to investigate the relation between the race of students and their SAT scores.
Following our project, we are going to dig deeper into the races of the students, analyzing the correlations between them and the scores. To start we will make a bar plot with the correlations between the percentage of each race in each school and their respective sat scores.
# list of columns we are going to use
race_percentage = ['white_per', 'asian_per', 'black_per', 'hispanic_per']
# configurating the size of the plot
fig, ax = plt.subplots(figsize=(10, 5))
# plotting a bar graph
barplot = sns.barplot(x=race_percentage, y='sat_score', data=corr.loc[race_percentage], ax=ax, palette="husl")
# configurating the plot
plt.setp(fig.axes, yticks=[])
plt.xticks(rotation=45, size=12)
plt.xlabel("")
plt.yticks(size=12)
plt.tick_params(bottom=False)
ax.axhline(0, color="k", clip_on=False)
ax.set_ylabel("", size=12)
ax.set_xlabel("Race percentge correlations per column", size=12)
ax.set_title("Correlations between race percentages and SAT scores", size=18, pad=30)
sns.despine(bottom=True, left=True, right=True)
sns.set(style="white")
# annotating the values in the bars
for bar in barplot.patches:
barplot.annotate(format(bar.get_height(), '.2f'),
(bar.get_x() + bar.get_width()/2., bar.get_height()),
ha='center', va='center', size=12, xytext=(0,12),
textcoords='offset points')
plt.show()
As we can see above, white and Asian correlate positively with the sat scores, showing that schools with a high amount of white and Asian students have overall better grades than those with smaller percentages. While Black and Hispanic show a negative correlation, indicating that the greater the percentage is, the smaller the average of SAT scores are. This doesn't mean causation, the SAT scores are not necessarily smaller because of this percentage, the correlations show only a possibility based on the numbers.
With that in mind, we can see a clear lack of balance between the races. To investigate it better, let's look closer the schools with high percentages of Hispanic students creating a scatter plot between hispanic_per
and sat_score
.
# configurating the size of the image
fig = plt.figure(figsize=(10,5))
# creating the scatter plot
ax = sns.scatterplot(data=combined, x='sat_score', y='hispanic_per')
# configurating the plot
ax.set_ylabel("hispanic_per", size=12)
ax.set_xlabel("sat_scores", size=12)
ax.set_title("Correlation between hispanic percentages and SAT scores", size=18, pad=30)
plt.xticks(size=12)
plt.yticks(size=12)
plt.tick_params(bottom=False)
sns.despine(bottom=True, left=True, right=True)
sns.set(style="white")
plt.show()
As we can see above, it is difficult to see a clear correlation, but it is interesting to see that schools with more than 30% of hispanic students don't seem to reach scores greater than 1500, while the schools with less than 30% have a wider range of grades.
With than in mind we are going to look closer to the schools with the greater and the smaller hispanic percentages, looking for other characteristics that may make them similar.
# schools with more than 95% of hispanic students
combined.loc[combined['hispanic_per']>95,
['SCHOOL NAME', 'hispanic_per', 'asian_per', 'black_per', 'white_per', 'borough', 'sat_score']]
SCHOOL NAME | hispanic_per | asian_per | black_per | white_per | borough | sat_score | |
---|---|---|---|---|---|---|---|
44 | MANHATTAN BRIDGES HIGH SCHOOL | 99.8 | 0.2 | 0.0 | 0.0 | Manhattan | 1058.0 |
82 | WASHINGTON HEIGHTS EXPEDITIONARY LEARNING SCHOOL | 96.7 | 0.0 | 2.3 | 0.3 | Manhattan | 1174.0 |
89 | GREGORIO LUPERON HIGH SCHOOL FOR SCIENCE AND M... | 99.8 | 0.0 | 0.0 | 0.0 | Manhattan | 1014.0 |
125 | ACADEMY FOR LANGUAGE AND TECHNOLOGY | 99.4 | 0.0 | 0.6 | 0.0 | Bronx | 951.0 |
141 | INTERNATIONAL SCHOOL FOR LIBERAL ARTS | 99.8 | 0.2 | 0.0 | 0.0 | Bronx | 934.0 |
176 | PAN AMERICAN INTERNATIONAL HIGH SCHOOL AT MONROE | 99.8 | 0.0 | 0.0 | 0.0 | Bronx | 970.0 |
253 | MULTICULTURAL HIGH SCHOOL | 99.8 | 0.0 | 0.2 | 0.0 | Brooklyn | 887.0 |
286 | PAN AMERICAN INTERNATIONAL HIGH SCHOOL | 100.0 | 0.0 | 0.0 | 0.0 | Queens | 951.0 |
The dataframe above shows us that almost all schools with more than 95% of hispanic students, have almost all of them with a range of 99.4 to 99.8, one school with 100% and another with 96.7%. By the name of the schools we can see that the reason behind this percentage being high is probably the international motivation of the schools.
Other important observations are that the Pan American International High School at Monroe accepts only Latino immigrants and that there is only one school with this high percentage in Brooklyn and Queens, on the other hand there are three in Manhattan and Bronx. That could be a reflex of the population characteristics in these boroughs.
After that we are going to take a look at the schools with percentage of hispanic students less than 10% and with SAT scores lower to 1800.
# printing the schools we need
combined.loc[(combined['hispanic_per']<10) & (combined['sat_score']<1800),
['SCHOOL NAME', 'hispanic_per', 'asian_per', 'black_per', 'white_per', 'borough', 'sat_score']]
SCHOOL NAME | hispanic_per | asian_per | black_per | white_per | borough | sat_score | |
---|---|---|---|---|---|---|---|
46 | HIGH SCHOOL FOR DUAL LANGUAGE AND ASIAN STUDIES | 4.0 | 89.5 | 3.4 | 2.3 | Manhattan | 1424.000000 |
192 | BEDFORD ACADEMY HIGH SCHOOL | 7.1 | 2.7 | 89.4 | 0.3 | Brooklyn | 1312.000000 |
194 | BENJAMIN BANNEKER ACADEMY | 8.8 | 2.7 | 87.0 | 0.4 | Brooklyn | 1391.000000 |
220 | BOYS AND GIRLS HIGH SCHOOL | 7.8 | 0.5 | 90.0 | 0.7 | Brooklyn | 1097.000000 |
223 | ACADEMY FOR COLLEGE PREPARATION AND CAREER EXP... | 6.7 | 0.2 | 92.0 | 1.1 | Brooklyn | 1139.000000 |
226 | THE HIGH SCHOOL FOR GLOBAL CITIZENSHIP | 7.3 | 1.5 | 89.2 | 1.5 | Brooklyn | 1176.000000 |
227 | SCHOOL FOR HUMAN RIGHTS, THE | 8.3 | 0.8 | 88.9 | 1.6 | Brooklyn | 1088.000000 |
228 | SCHOOL FOR DEMOCRACY AND LEADERSHIP | 8.4 | 0.5 | 89.4 | 1.5 | Brooklyn | 1153.000000 |
229 | HIGH SCHOOL FOR YOUTH AND COMMUNITY DEVELOPMEN... | 9.1 | 1.0 | 87.3 | 1.0 | Brooklyn | 1027.000000 |
230 | HIGH SCHOOL FOR SERVICE & LEARNING AT ERASMUS | 9.0 | 2.1 | 87.0 | 1.7 | Brooklyn | 1105.000000 |
231 | SCIENCE, TECHNOLOGY AND RESEARCH EARLY COLLEGE... | 9.4 | 3.1 | 83.9 | 1.3 | Brooklyn | 1360.000000 |
235 | MEDGAR EVERS COLLEGE PREPARATORY SCHOOL | 2.8 | 0.9 | 95.7 | 0.0 | Brooklyn | 1436.000000 |
236 | CLARA BARTON HIGH SCHOOL | 5.8 | 1.8 | 91.2 | 0.7 | Brooklyn | 1251.000000 |
237 | IT TAKES A VILLAGE ACADEMY | 4.5 | 1.8 | 92.9 | 0.5 | Brooklyn | 963.000000 |
238 | BROOKLYN GENERATION SCHOOL | 8.5 | 1.5 | 88.8 | 0.9 | Brooklyn | 1145.000000 |
240 | KURT HAHN EXPEDITIONARY LEARNING SCHOOL | 8.8 | 0.0 | 88.1 | 1.7 | Brooklyn | 1092.000000 |
241 | VICTORY COLLEGIATE HIGH SCHOOL | 5.8 | 0.3 | 93.5 | 0.0 | Brooklyn | 1143.000000 |
242 | ARTS & MEDIA PREPARATORY ACADEMY | 9.6 | 0.7 | 89.4 | 0.0 | Brooklyn | 1080.000000 |
280 | BROOKLYN COLLEGIATE: A COLLEGE BOARD SCHOOL | 8.3 | 1.9 | 88.1 | 0.5 | Brooklyn | 1185.000000 |
330 | QUEENS PREPARATORY ACADEMY | 8.2 | 5.2 | 84.4 | 0.9 | Queens | 1099.000000 |
331 | PATHWAYS COLLEGE PREPARATORY SCHOOL: A COLLEGE... | 2.9 | 2.2 | 94.2 | 0.7 | Queens | 1173.000000 |
332 | EXCELSIOR PREPARATORY HIGH SCHOOL | 9.7 | 4.3 | 82.8 | 0.5 | Queens | 1202.000000 |
335 | CAMBRIA HEIGHTS ACADEMY | 7.5 | 3.4 | 87.1 | 2.0 | Queens | 1223.438806 |
337 | HUMANITIES & ARTS MAGNET HIGH SCHOOL | 8.5 | 4.0 | 85.9 | 1.5 | Queens | 1151.000000 |
353 | TOTTENVILLE HIGH SCHOOL | 9.9 | 5.4 | 2.1 | 82.1 | Staten Island | 1418.000000 |
As before, we can see that the schools are mainly located in two boroughs: Brooklyn and Queens, both of them may be correlated to the reality of the borough population. Staten Island shows a very small amount of other races that are not white, so it may not be correlated specifically with hispanic, and the school located in Manhattan with 4.0 percent of hispanic students is HIGH SCHOOL FOR DUAL LANGUAGE AND ASIAN STUDIES, this shows that probably the smaller amout of other races is related to the emphasis in the asian students.
To illustrate the difference between the borough population, we can take a look at the information taken from the US Census of 2010 that specifies the races percentages in the NYC Boroughs in that year, after it no census were made, just predictions, the next is from 2019 and is doesn't help us.
# importing the csv with raw data
demographics_raw = pd.read_csv('https://raw.githubusercontent.com/nathpignaton/guided_projects/main/nyc-sat-analysis/QuickFactsNY.csv')
# renaming the columns
new_columns = {'Bronx County (Bronx Borough), New York': 'Bronx', 'Kings County (Brooklyn Borough), New York': 'Brooklyn',
'New York County (Manhattan Borough), New York': 'Manhattan',
'Queens County (Queens Borough), New York': 'Queens',
'Richmond County (Staten Island Borough), New York': 'Staten Island'}
demographics_raw.rename(columns=new_columns, inplace=True)
# creating a df with the columns we need
demographics = demographics_raw[['Fact', 'Bronx', 'Brooklyn', 'Manhattan', 'Queens', 'Staten Island']]
# filtering the info
demographics = demographics[(demographics['Fact'] == 'White alone, percent') |
(demographics['Fact'] == 'Black or African American alone, percent') |
(demographics['Fact'] == 'American Indian and Alaska Native alone, percent') |
(demographics['Fact'] == 'Asian alone, percent') |
(demographics['Fact'] == 'Native Hawaiian and Other Pacific Islander alone, percent') |
(demographics['Fact'] == 'Two or More Races, percent') |
(demographics['Fact'] == 'Hispanic or Latino, percent') |
(demographics['Fact'] == 'White alone, not Hispanic or Latino, percent')]
demographics
Fact | Bronx | Brooklyn | Manhattan | Queens | Staten Island | |
---|---|---|---|---|---|---|
8 | White alone, percent | 44.7% | 49.8% | 64.6% | 47.8% | 74.5% |
9 | Black or African American alone, percent | 43.6% | 33.8% | 17.8% | 20.7% | 11.6% |
10 | American Indian and Alaska Native alone, percent | 2.9% | 0.9% | 1.2% | 1.3% | 0.7% |
11 | Asian alone, percent | 4.6% | 12.7% | 12.8% | 26.9% | 10.9% |
12 | Native Hawaiian and Other Pacific Islander alo... | 0.4% | 0.1% | 0.2% | 0.2% | 0.1% |
13 | Two or More Races, percent | 3.8% | 2.7% | 3.4% | 3.0% | 2.2% |
14 | Hispanic or Latino, percent | 56.4% | 18.9% | 25.6% | 28.2% | 18.6% |
15 | White alone, not Hispanic or Latino, percent | 9.0% | 36.8% | 47.2% | 24.9% | 59.6% |
As we can see above, the information shown in the schools databases are highly related to the population in the school borough. Makes sense that the schools in Brooklyn and Staten Island have such a low percentage of hispanic students, since the percentage of hispanic or latinos in Staten Island is 18.6% and in Brooklyn 18.9%. The same logic follows Manhattan and Queens, that have (both) a higher percentage of hispanic or latinos, 25.6% in Manhattan and 28.2% in Queens.
Coming back to the SATs, we are going to see the influence of gender in the grades, looking for patterns that could be interesting.
After the analysis made before, we are going to check the relation between male and female students and the SAT scores. Let's plot a bar graph with the correlations.
# configurating the size of the plot
fig, ax = plt.subplots(figsize=(6, 6))
# plotting a bar graph
barplot = sns.barplot(x=['male_per', 'female_per'], y='sat_score',
data=corr.loc[['male_per', 'female_per']],
ax=ax, palette='pastel')
# configurating the plot
plt.setp(fig.axes, yticks=[])
plt.xticks(size=12)
plt.xlabel("")
plt.yticks(size=12)
plt.tick_params(bottom=False)
ax.axhline(0, color="k", clip_on=False)
ax.set_ylabel("", size=12)
ax.set_xlabel("correlation between percentage and SAT scores", size=12)
ax.set_title("Correlations between male and female student percentages and average SAT scores of the schools", size=18, pad=30)
sns.despine(bottom=True, left=True, right=True)
sns.set(style="white")
# annotating the values in the bars
for bar in barplot.patches:
barplot.annotate(format(bar.get_height(), '.2f'),
(bar.get_x() + bar.get_width()/2., bar.get_height()),
ha='center', va='center', size=12, xytext=(0,12),
textcoords='offset points')
plt.show()
Looking at the graph above, we can see the very interesting information that schools with a higher percentage of female students show, also, a higher average SAT Score, let's look closer at this information using a scatter plot.
# configurating the size of the image
fig = plt.figure(figsize=(10,5))
# creating the scatter plot
ax = sns.scatterplot(data=combined, x='sat_score', y='male_per')
# configurating the plot
ax.set_ylabel("female percentage", size=12)
ax.set_xlabel("average of SAT scores", size=12)
ax.set_title("Correlation between female students percentages and average SAT scores", size=18, pad=30)
plt.xticks(size=12)
plt.yticks(size=12)
plt.tick_params(bottom=False)
sns.despine(bottom=True, left=True, right=True)
sns.set(style="white")
plt.show()
Looking at the graph above, we can see that the school with the higher average of SAT scores have, also, a specific percentage of female students, this percentages sits in the range of 20% to 70%. To investigate it further, we are going to look at the schools with more than 60% of female students and SAT score higher than 1700.
combined.loc[(combined['female_per']>60) & (combined['sat_score']>1700), ['SCHOOL NAME', 'sat_score', 'female_per']]
SCHOOL NAME | sat_score | female_per | |
---|---|---|---|
5 | BARD HIGH SCHOOL EARLY COLLEGE | 1856.0 | 68.7 |
26 | ELEANOR ROOSEVELT HIGH SCHOOL | 1758.0 | 67.5 |
60 | BEACON HIGH SCHOOL | 1744.0 | 61.0 |
61 | FIORELLO H. LAGUARDIA HIGH SCHOOL OF MUSIC & A... | 1707.0 | 73.6 |
302 | TOWNSEND HARRIS HIGH SCHOOL | 1910.0 | 71.1 |
Looking closely to the schools above, we can see that the schools are all highly competitive, with Advanced Placement programs and a small amount of students.
Since this schools have Advanced Placement programs, let's see the influence of it in the average SAT scores.
To see if the two informations correlate somehow we need to, first, calculate the percentage of students in each school that took an AP exam. After it we can plot the scatter plot to see the behavior of this relationship.
# calculating the percentage
ap_per = combined['AP Test Takers ']/combined['total_enrollment']
combined['ap_per'] = ap_per
# configurating the size of the image
fig = plt.figure(figsize=(10,5))
# creating the scatter plot
ax = sns.scatterplot(data=combined, x='sat_score', y='ap_per')
# configurating the plot
ax.set_ylabel("advanced placement percentage", size=12)
ax.set_xlabel("average of SAT scores", size=12)
ax.set_title("Correlation between AP takers percentages and average SAT scores", size=18, pad=30)
plt.xticks(size=12)
plt.yticks(size=12)
plt.tick_params(bottom=False)
sns.despine(bottom=True, left=True, right=True)
sns.set(style="white")
plt.show()
Looking at the graph above, we can see that the schools with average of SAT scores higher than 1400 correlate more with the percentage of students that did the advanced placement tests, showing that it makes difference in the grades higher than 1400.
Through the analysis above, we saw that several aspects influence the average SAT of the schools and that, some of them, have a bigger and smaller influence. In a nutshell:
Survey Correlations showed us that safety and respect scores of students
and academic expectation scores
have a higher correlation than other survey aspects. This led us to investigate the SAT scores per district, looking at the social information of each one of them. We'll talk more about that below.
Surprisingly Gender Correlation showed us that the amount of female students is positively correlated to the higher scores.
On the other hand, the existence of Advanced Placement exams told us that, as we expected, schools that give this resource to their students, have a higher chance of getting a higher SAT score.
Talking about the SAT average scores by District we can see that in the ones where the safety scores are lower, the SAT scores tend to be smaller, showing that the sense of security influences how great the average of the SAT score can be.
When it comes to Races, the average of the SAT scores shows us that when a school has a percentage above 30% of Hispanic students, it will fall, probably, into the range of 0 to 1500 average. We saw, after that, the relation of small SAT scores and low Hispanic students percentage, showing that the schools with less Hispanic and less averages, have a high percentage of Black students, this also relates to the District where the schools are.
To conclude we can say that races and location being badly correlated to the average of the SAT scores show us that the allegations of the tests being unfair to specific racial groups make sense, showing that there is room to improve to make smaller the differences.