###Collections Salas{_id} Reservas{_id, sala_id, data}
###Preciso contar as reservas de cada sala por uma data:
map = function () {
emit(this.sala_id, [1]);
}
| public async Task<int> SumPageSizesAsync(IList<Uri> uris) { | |
| int total = 0; | |
| int i = 0; | |
| int n = 0; | |
| foreach (var uri in uris) { | |
| Console.WriteLine("{0} - {1}", ++n, DateTime.Now.ToString("yyyyMMddHHmmssffff")); | |
| Console.WriteLine(string.Format("{0} Found {1} bytes ...", ++i, total)); | |
| var wc = new WebClient(); | |
| var data = await wc.DownloadDataTaskAsync(uri); | |
| Console.WriteLine("{0} - {1}", n, DateTime.Now.ToString("yyyyMMddHHmmssffff")); |
| //Algoritmo genético | |
| //Trabalho de Inteligência Artificial | |
| //Unileste - Centro Universitário do Leste de Minas Gerais | |
| //Professor Reinaldo | |
| //Autor: Alexsandro Souza Pereira Twitter @alexsandro_xpt | |
| using System; | |
| using System.Collections.Generic; | |
| using System.Linq; |
| public async Task<string> DownloadTaskAsync(string url) { | |
| HeadOnly = true; | |
| bool loop; | |
| HttpWebResponse responseAsync; | |
| do { | |
| loop = false; | |
| var webRequest = (HttpWebRequest) GetWebRequest(new Uri(url)); |
| #include <stdio.h> | |
| #include <stdlib.h> | |
| #include <conio.h> | |
| #include <string.h> | |
| #include <iostream.h> | |
| void main() { | |
| FILE *arqF = fopen("c:\\funcionarios.txt","r"); | |
| char nome[40]; | |
| int chapa; |
###Collections Salas{_id} Reservas{_id, sala_id, data}
###Preciso contar as reservas de cada sala por uma data:
map = function () {
emit(this.sala_id, [1]);
}
| using System; | |
| using System.Collections.Generic; | |
| using System.Linq; | |
| using System.Text; | |
| namespace AG | |
| { | |
| public class Pais |
| using System; | |
| using System.Collections.Generic; | |
| using System.Linq; | |
| using System.Text; | |
| using System.Threading; | |
| namespace AG1 { | |
| class Program { | |
| static bool bit; |
| var WebSiteHistory = [{ | |
| Id:1038984165156974140 /* Vai repetir muito(pra cada WebSite_Id x History_Id), é hash do Href. */ | |
| ,WebSite_Id: 542 /* Id do site crawleado */ | |
| ,History_Id:6 /* Id da data-tempo que foi crawleado */ | |
| ,Data: new Date() | |
| ,Page: [{ | |
| Id:3125795879564125365 | |
| ,Href:"http://www.terra.com.br" /* Vai repetir muito(pra cada WebSite_Id x History_Id). */ |
| db.runCommand({ | |
| mapreduce: "Page", | |
| map : function Map() { | |
| emit( | |
| this._id, // how to group | |
| {"links":this.Links,"has":false} // associated data point (document) | |
| ); | |