* Ver também a página com [[dicas]] gerais.
* D. S. Johnson: {{http://www.research.att.com/~dsj/papers/experguide.pdf|A Theoretician's Guide to the Experimental Analysis of Algorithms}}
==== Trabalho 1 (Heaps binários) ====
Entrega: 13/03/2009
=== Objetivos ===
* Implementar um heap binário
* Implementar o algoritmo de Prim usando esse heap
* Verificar as complexidades experimentalmente
=== Casos de teste ===
* Os casos de teste são parte do [[http://steinlib.zib.de//steinlib.php|Steinlib]].
* Todos possuem somente uma componente conectada.
^ Nome ^ MST ^ Nome ^ MST ^ Nome ^ MST ^
| b01 | 238 | c01 | 2426 | msm0580 | 2141 |
| b02 | 238 | c02 | 2333 | msm0654 | 7333 |
| b03 | 217 | c03 | 2313 | msm0709 | 8837 |
| b04 | 196 | c04 | 2391 | msm0920 | 4195 |
| b05 | 167 | c05 | 2372 | msm1008 | 2381 |
| b06 | 168 | c06 | 1705 | msm1234 | 5252 |
| b07 | 341 | c07 | 1734 | msm1477 | 7110 |
| b08 | 343 | c08 | 1665 | msm1707 | 1713 |
| b09 | 331 | c09 | 1616 | msm1844 | 517 |
| b10 | 282 | c10 | 1669 | msm1931 | 5218 |
| b11 | 236 | c11 | 862 | msm2000 | 5333 |
| b12 | 253 | c12 | 895 | msm2152 | 12279 |
| b13 | 480 | c13 | 884 | msm2326 | 2525 |
| b14 | 463 | c14 | 855 | msm2492 | 23844 |
| b15 | 462 | c15 | 882 | msm2525 | 17518 |
| b16 | 319 | c16 | 503 | msm2601 | 17024 |
| b17 | 296 | c17 | 499 | msm2705 | 7646 |
| b18 | 337 | c18 | 503 | msm2802 | 9540 |
| | | c19 | 504 | msm2846 | 18494 |
| | | c20 | 509 | msm3277 | 9579 |
| | | | | msm3676 | 5948 |
| | | | | msm3727 | 25659 |
| | | | | msm3829 | 24972 |
| | | | | msm4038 | 1436 |
| | | | | msm4114 | 2333 |
| | | | | msm4190 | 2270 |
| | | | | msm4224 | 1094 |
| | | | | msm4312 | 30628 |
| | | | | msm4414 | 1996 |
| | | | | msm4515 | 4488 |
=== Gerador de casos de teste ===
* Gera um grafo com n vértices e probabilidade de um arco p, e imprime o peso total de uma árvore geradora mínima
* Existe uma chance que o grafo não é conexo. Nesse caso o algoritmo falha.
* Para compilar: Usar C++ e [[http://www.boost.org|Boost]].
#include
#include
using namespace std;
#include
#include
#include
using namespace boost;
// information stored in vertices
struct VertexInformation {
unsigned component;
};
// information stored in edges
struct EdgeInformation {
unsigned weight;
};
const unsigned maxweight = 1000;
// graph is an adjacency list represented by vectors
typedef adjacency_list Graph;
typedef graph_traits::vertex_descriptor Node;
typedef graph_traits ::edge_descriptor Edge;
int main(int argc, char *argv[]) {
assert(argc == 3);
unsigned n = atoi(argv[1]);
double p = atof(argv[2]);
srand48(time(0));
// (1) generate random graph
Graph g;
for(unsigned i=0; i1)
return 1;
// (2.1) MST
vector mst;
kruskal_minimum_spanning_tree(g, back_inserter(mst), weight_map(get(&EdgeInformation::weight,g)));
unsigned cost = 0;
for(vector::iterator i=mst.begin(); i!=mst.end(); i++)
cost += g[*i].weight;
cout << "The weight of a MST is " << cost << "." << endl;
// (3) print out in STP format
cout << "SECTION Graph" << endl;
cout << "Nodes " << num_vertices(g) << endl;
cout << "Edges " << num_edges(g) << endl;
graph_traits::edge_iterator eb, ee;
for ( tie(eb, ee)=edges(g); eb != ee; eb++)
cout << "E " << source(*eb,g)+1 << " " << target(*eb, g)+1 << " " << g[*eb].weight << endl;
}
==== Trabalho 2 (Heaps binomiais) ====
Entrega: 23/03/2009
=== Objetivos ===
* Implementar um heap binomial e verificar a complexidade das operações experimentalmente.
* Verificar a complexidade do algoritmo de Prim usando um heap binomial experimentalmente.
* Comparar as complexidades experimentais dos heaps binários e binomiais.
* Comparar as complexidades experimentais do algoritmo de Prim com os dois heaps.
=== Casos de teste ===
* Podem ser usados os mesmo casos de teste do primeiro trabalho.
=== Mais observações ===
* Para facilitar a avaliação, as implementações do algoritmo Prim devem aceitar uma árvore no formato Steinlib na entrada padrão (stdin) e imprimir o peso total de uma árvore geradora mínima na saída padrão (stdout)((Quem já tem implementação com outro formato, não precisa modificar o parser, so implementar de acordo com as convencões da entrada e saída)).
==== Trabalho 3 (Fluxo s-t máximo) ====
Entrega: 06/04/2009
=== Objetivos ===
* Implementar o algoritmo de Ford-Fulkerson usando busca por largura para achar um caminho s-t((Esse algoritmo é conhecido pelo nome Edmonds-Karp)).
* Verificar a complexidade do algoritmo experimentalmente.
=== Casos de teste ===
* Um gerador de casos de teste em formato DIMACS em C é disponível {{http://www.inf.ufrgs.br/~mrpritt/washington.c|aqui}}.
* Documentação:
To use: cc washington.c -o gengraph
gengraph function arg1 arg2 arg3
Command line arguments have the following meanings:
function: index of desired graph type
arg1, arg2, arg3: meanings depend on graph type
(briefly listed below: see code
comments for more info)
Mesh Graph: 1 rows cols maxcapacity
Random Level Graph: 2 rows cols maxcapacity
Random 2-Level Graph:3 rows cols maxcapacity
Matching Graph: 4 vertices degree
Square Mesh: 5 side degree maxcapacity
Basic Line: 6 rows cols degree
Exponential Line: 7 rows cols degree
Double Exponential 8 rows cols degree
DinicBadCase: 9 vertices
(causes n augmentation phases)
GoldBadCase 10 vertices
Cheryian 11 dim1 dim2 range
(last 2 are bad for goldberg's algorithm)
^ No. ^ Nome ^ Parâmetros ^ Descrição ^ n ^ m ^
| 1 | Mesh | r,c | Grade, 3 viz. 1 direita | rc+2 | 3r(c-1) |
| 2 | Random level | r,c | Grade, 3 viz. rand. 1 direita | rc+2 | 3r(c-1) |
| 3 | Random 2-level | r,c | Grade, 3 viz. rand. 2 direita | rc+2 | 3r(c-1) |
| 4 | Matching | n,d | Bipart. n-n, d viz. rand. | 2n+2 | n(d+2) |
| 5 | Square Mesh | d,D | Quadr. mesh dxd, grau D | d*d+2 | (d-1)dD+2d |
| 6 | BasicLine | n,m,D | Linha, grau D| nm+2 | nmD+2m |
| 7 | ExpLine | n,m,D | Linha, grau D | nm+2 | nmD+2m |
| 8 | DExpLine | n,m,D | Linha, grau D | nm+2 | nmD+2m |
| 9 | DinicBad | n | Linha | n | 2n-3|
| 10 | GoldBad | n | | 3n+3 | 4n+1 |
=== Convenções ===
* As implementações do algoritmo devem aceitar uam instância no formato {{http://lpsolve.sourceforge.net/5.5/DIMACS_maxf.htm|DIMACS}} na entrada padrão (stdin) e imprimir o valor do fluxo máximo na saída padrão (stdout).
=== Verificação ===
* O seguinte código determina o fluxo máximo. Para compilar: Usar C++ e {{http://www.boost.org|Boost}}.
/**
* \file maxflow.cpp
* \author Marcus Ritt
* \version $Id: emacs 2872 2009-01-31 01:46:50Z ritt $
* \date Time-stamp: <2009-03-23 17:52:25 ritt>
*
* Read a maximum flow problem in DIMACS format and output the maximum flow.
*
*/
#include
#include
using namespace std;
#include
#include
#include
using namespace boost;
// a directed graph with reverse edges
struct VertexInformation {};
struct EdgeInformation;
typedef adjacency_list DiGraph;
typedef graph_traits::edge_descriptor Edge;
typedef graph_traits::vertex_descriptor DiNode;
typedef unsigned Capacity;
struct EdgeInformation {
Capacity edge_capacity;
Capacity edge_residual_capacity;
Edge reverse_edge;
};
int main(int argc, char *argv[]) {
// (0) read graph
DiGraph g;
DiNode s,t;
read_dimacs_max_flow(g,
get(&EdgeInformation::edge_capacity,g),
get(&EdgeInformation::reverse_edge,g),
s, t);
// (1) determine maximum flow
cout << edmunds_karp_max_flow(g, s, t,
capacity_map(get(&EdgeInformation::edge_capacity,g)).
residual_capacity_map(get(&EdgeInformation::edge_residual_capacity,g)).
reverse_edge_map(get(&EdgeInformation::reverse_edge,g))) << endl;
}
==== Trabalho 4 (Segmentação de imagens) ====
Entrega: 13/04/2009
=== Objetivos ===
* Implementar um algoritmo de segmentção de imagens como vista em aula.
* Usar a própria implementação do fluxo máximo na solução.
* Segmentar uma imagem em pele/não-pele com pesos de separação diferentes.
=== Casos de teste ===
* O caso de teste é uma imagem de si mesmo.
=== Convenções ===
* As implementações do algoritmo devem aceitar uma imagem no formata PPM plain na entrada padrão (stdin) e imprimir uma imagem no mesmo formato (com todos pixels não-pelo em preto) na saída padrão (stdout).
=== Códigos disponíveis ===
* Ler uma imagem PPM plain
// image data structure
enum { R = 0, G, B };
typedef unsigned short Color;
typedef multi_array Image;
// read an image im PPM (plain) format
void read_ppm(Image& im, istream& in) {
unsigned w,h,maxcolor;
string magic;
in >> magic >> w >> h >> maxcolor;
assert(magic == "P3");
im.resize(extents[h][w][3]);
for(unsigned i=0; i> im[i][j][R] >> im[i][j][G] >> im[i][j][B];
}
* Imprimir uma imagem PPM plain
cout << "P3 " << w << " " << h << " 255 " << endl;
for(unsigned i=0; i
* Converter qualquer imagem para PPM plain (usando {{http://www.imagemagick.org|Image Magick}})
convert -compress none myimage.ext myimage.ppm
* Determinar a probabilidade de pele ou não-pele (para obter valores inteiros multiplicar com p.ex. 10.000.000.000)
// mixture of Gaussians, according to Jones, Regh
const unsigned nG = 16;
const unsigned nV = 7;
double skin[nG][nV] = {
{ 73.53, 29.94, 17.76, 765.40, 121.44, 112.80, 0.0294 },
{ 249.71, 233.94, 217.49, 39.94, 154.44, 396.05, 0.0331 },
{ 161.68, 116.25, 96.95, 291.03, 60.48, 162.85, 0.0654 },
{ 186.07, 136.62, 114.40, 274.95, 64.60, 198.27, 0.0756 },
{ 189.26, 98.37, 51.18, 633.18, 222.40, 250.69, 0.0554 },
{ 247.00, 152.20, 90.84, 65.23, 691.53, 609.92, 0.0314 },
{ 150.10, 72.66, 37.76, 408.63, 200.77, 257.57, 0.0454 },
{ 206.85, 171.09, 156.34, 530.08, 155.08, 572.79, 0.0469 },
{ 212.78, 152.82, 120.04, 160.57, 84.52, 243.90, 0.0956 },
{ 234.87, 175.43, 138.94, 163.80, 121.57, 279.22, 0.0763 },
{ 151.19, 97.74, 74.59, 425.40, 73.56, 175.11, 0.1100 },
{ 120.52, 77.55, 59.82, 330.45, 70.34, 151.82, 0.0676 },
{ 192.20, 119.62, 82.32, 152.76, 92.14, 259.15, 0.0755 },
{ 214.29, 136.08, 87.24, 204.90, 140.17, 270.19, 0.0500 },
{ 99.57, 54.33, 38.06, 448.13, 90.18, 151.29, 0.0667 },
{ 238.88, 203.08, 176.91, 178.38, 156.27, 404.99, 0.0749 }
};
double noskin[nG][nV] = {
{ 254.37, 254.41, 253.82, 2.77, 2.81, 5.46, 0.0637 },
{ 9.39, 8.09, 8.52, 46.84, 33.59, 32.48, 0.0516 },
{ 96.57, 96.95, 91.53, 280.69, 156.79, 436.58, 0.0864 },
{ 160.44, 162.49, 159.06, 355.98, 115.89, 591.24, 0.0636 },
{ 74.98, 63.23, 46.33, 414.84, 245.95, 361.27, 0.0747 },
{ 121.83, 60.88, 18.31, 2502.24, 1383.53, 237.18, 0.0365 },
{ 202.18, 154.88, 91.04, 957.42, 1766.94, 1582.52, 0.0349 },
{ 193.06, 201.93, 206.55, 562.88, 190.23, 447.28, 0.0649 },
{ 51.88, 57.14, 61.55, 344.11, 191.77, 433.40, 0.0656 },
{ 30.88, 26.84, 25.32, 222.07, 118.65, 182.41, 0.1189 },
{ 44.97, 85.96, 131.95, 651.32, 840.52, 963.67, 0.0362 },
{ 236.02, 236.27, 230.70, 225.03, 117.29, 331.95, 0.0849 },
{ 207.86, 191.20, 164.12, 494.04, 237.69, 533.52, 0.0368 },
{ 99.83, 148.11, 188.17, 955.88, 654.95, 916.70, 0.0389 },
{ 135.06, 131.92, 123.10, 350.35, 130.30, 388.43, 0.0943 },
{ 135.96, 103.89, 66.88, 806.44, 642.20, 350.36, 0.0477 }
};
double skin_value(Color R, Color G, Color B) {
double r = 0;
for(unsigned i=0; i
==== Trabalho 5 (Emparelhamentos) ====
Entrega: 04/05/2009
=== Objetivos ===
* Implementar o algoritmo de Hopcroft/Karp que resolve o problema do emparelhamento máximo em grafos bi-partidos.
* Documentar a implementação, em particular as estruturas de dados para a representação do problema.
* Conduzir testes, que demonstram que a complexidade do algoritmo é O(sqrt(n)m).
=== Casos de teste ===
* Gerar grafos bi-partidos randômicas com probabilidade de uma aresta 0 <= p <= 1.
=== Convenções ===
* As implementações do algoritmo devem aceitar um grafo bi-partido não-direcionado no formato [[http://prolland.free.fr/works/research/dsat/dimacs.html|DIMACS]] na entrada padrão (stdin) e imprimir a cardinalidade de um emparelhamento máximo na saída padrão (stdout).
=== Códigos disponíveis ===
* Gerador de casos de teste no formato DIMACS + verificação.
* Para compilar: Usar C++ e Boost.
#include
#include
using namespace std;
#include
#include
using namespace boost;
// information stored in vertices
struct VertexInformation;
// information stored in edges
struct EdgeInformation {};
// graph is an adjacency list represented by vectors
typedef adjacency_list Graph;
typedef graph_traits::vertex_descriptor Node;
typedef graph_traits ::edge_descriptor Edge;
struct VertexInformation {
Node mate; // partner or graph_traits::null_vertex()
};
int main(int argc, char *argv[]) {
assert(argc == 3);
unsigned n = atoi(argv[1]);
double p = atof(argv[2]);
srand48(time(0));
// (1) generate random bi-partite graph
Graph g;
for(unsigned i=0; i<2*n; i++)
add_vertex(g);
for(unsigned i=0; i::vertex_iterator vb, ve;
for ( tie(vb, ve)=vertices(g); vb != ve; vb++)
if (g[*vb].mate != graph_traits::null_vertex())
card++;
cout << "The cardinality of a maximum matching is " << card/2 << "." << endl;
// (3) print out in DIMACS format
cout << "c Bi-partite graph" << endl;
cout << "p edge " << num_vertices(g) << " " << num_edges(g) << endl;
graph_traits::edge_iterator eb, ee;
for ( tie(eb, ee)=edges(g); eb != ee; eb++)
cout << "e " << source(*eb,g)+1 << " " << target(*eb, g)+1 << endl;
}
==== Trabalho 6 (Hashing) ====
Entrega: 18/05/2009
=== Objetivos ===
* Implementar tabelas hash com resolução de colisões com encadeamento, com endereçamento aberto e com cuco hashing.
* Escolher funções hash adequadas.
* Conduzir testes, que determinam a complexidade média (amortizada) das operações insert e lookup para diferentes fatores de ocupação.
=== Casos de teste ===
* Conjuntos de chaves aleatórias.
=== Convenções ===
* As implementações do algoritmo devem aceitar um arquivo na entrada padrão (stdin) que informa na primeira linha
n m
o número de inserções n e o número de consultas m, seguido por n linhas que contém um número inteiro que
representa uma chave a inserir e m linhas que contém um número inteiro que representa uma consulta. O algoritmo deve imprimir na saida padrão (stdout) m linhas que contém o resultado dos m lookups: 0 para uma chave que não pertence a tabela hash, e 1 caso contrário.
==== Trabalho 7 (Minimum cut) ====
Entrega: 15/06/2009
=== Objetivos ===
* Implementar o algoritmo randomizado (simples) visto em aula para calcular um corte mínimo.
* Determinar o corte mínimo de duas formas: (i) Aplicando o algoritmo de Edmonds-Karp n-1 vezes (ii) Usando o algoritmo randomizado.
* Conduzir testes, que determinam o tempo de execução das duas abordagens e a número média de falhas do algoritmo randomizado.
=== Casos de teste ===
* Podem ser usados os mesmos casos de teste do trabalho 3 (ignorar os vértices s e t).
=== Convenções ===
* Os códigos devem respeitar a mesmas convenções do trabalho 3 (imprimindo o valor do corte mínimo na saida padrão).